Newsletter Anmeldung

Bleiben Sie mit dem Newsletter immer up to date.

Anfrage
arrow-to-top

Opake Systeme künstlicher Intelligenz und das Problem der Verantwortungslücke

11/2022

Einleitung

Menschen können etwas herstellen, das als „autonom“ und „selbstlernend“ bezeichnet wird. Sie sind in der Lage, Artefakte zu konstruieren, die nicht nur Sachen und Instrumente sind, sondern die selbsttätig vorgehen, als lernfähig gelten und so komplex sind, dass man sie in ihren Wirkweisen nicht vollständig durchschauen kann. Kurzum: Sie sind fähig, opake Systeme künstlicher Intelligenz zu produzieren. Beispielsweise ist ein vollautomatisiertes Fahrzeug, das von künstlichen neuronalen Netzen betrieben wird, ein solches System. Es soll den Nutzenden ermöglichen, sich nach einer Zieleingabe ohne weitere eigene Eingriffe von einem zum anderen Ort fortbewegen zu lassen. Als Passagierin oder Passagier des vollautomatisierten Fahrzeugs wird man ohne menschliche Fahrerin oder menschlichen Fahrer transportiert. Damit es funktionieren kann, ist der Gang von Entwicklungsschritten, Programmierungen, automatisierten Lernprozessen, Tests und Prüfverfahren nötig. So soll das Fahrzeug lernen, die Regeln des Straßenverkehrs anzuwenden und die Straßenlinienführung erkennen zu können; ansonsten wäre es nicht zweckdienlich. Es soll in verschiedenen Situationen und Konstellationen agieren und reagieren, auch, um mögliche Unfälle nicht entstehen zu lassen. Weil ein solches Fahrzeug vom Menschen allerdings nicht so vorprogrammiert und eingestellt werden kann, dass es alle möglichen Situationen und Konstellationen zu erfassen und zu verarbeiten vermag, werden Methoden des maschinellen Lernens eingesetzt, die es dem Fahrzeug ermöglichen, sich selbst zu programmieren. Diese Methoden basieren auf automatisch erzeugten, komplexen Wechselwirkungen zwischen dem Fahrzeug und seiner Umgebung, die es dem Fahrzeug erlauben, sich Verhaltensweisen wie das sichere und gesetzeskonforme Fahren anzueignen. Weil diese Methoden jedoch so komplex sind und autonom angewendet werden, haben sie zur Folge, dass Programmierende nicht immer in der Lage sind, vorauszusehen, wie sich das Fahrzeug in jeder Situation verhalten wird, und in der Regel nicht nachvollziehen können, wieso es sich gerade so verhält und nicht anders.

Opake Systeme künstlicher Intelligenz wie ein von künstlichen neuronalen Netzen betriebenes vollautomatisiertes Fahrzeug sind keine einfachen Werkzeuge und keine einfachen Automaten. Sie sind komplex, reaktiv, womöglich einst sogar selbst absichtsvoll aktiv. Ein Hammer ist dies nicht: Er ist ein einfaches Werkzeug. Er wurde handwerklicher Zwecke wegen konstruiert und soll zur Zweckerfüllung taugen. Selbstverständlich kann man ihn zweckentfremden und zum Element eines musikalischen Arrangements machen. Oder man kann ihn nutzen, um jemanden zu attackieren. Wie auch immer man ihn nutzt: Seine Nutzung und deren Folgen sind unter Normalbedingungen ganz und gar abhängig von demjenigen, der den Hammer hält und bewegt. Der Hammer ist nicht autonom und nicht selbstlernend. Weder tut er etwas, denn dazu ist er nicht in der Lage, noch kann er Eindrücke verarbeiten. Kommt ein Mensch durch einen Hammerschlag zu Tode, wird niemand, der vernünftig ist, den Gedanken haben, den Hammer in die Verantwortung zu nehmen und ihn Rede und Antwort stehen lassen zu wollen; auch ist dies so bei einem einfachen Automaten, wenngleich er, ist er erst einmal in Gang gesetzt, mechanisch Tätigkeiten verrichtet. Wird ein Mensch durch einen solchen Automaten, beispielsweise einen Kaffeeautomaten, verletzt, dann liegt es daran, dass dieser schlecht eingerichtet oder programmiert, nicht sorgfältig überholt, fehlerhaft eingesetzt oder zweckentfremdend mit ihm umgegangen worden ist. Hinsichtlich des Gebrauchs des Hammers und des Kaffeeautomaten stellen sich, sobald sich Fragen nach der Verantwortung stellen, diese nicht ihnen, sondern denen, die ihre Entwicklung und Produktion erlaubt und forciert haben, und denen, die sie nutzen und warten.

Aufgrund der Entwicklung und des Einsatzes von opaken Systemen künstlicher Intelligenz ergeben sich moralische Probleme, die sowohl in den Akademien als auch in der breiten Öffentlichkeit Aufmerksamkeit erregen. Ein bereits genanntes ist das Problem der Verantwortung für Aktionen dieser Systeme und deren Folgen. Um dies einleitend und exemplarisch zu veranschaulichen: Wenn ein vollautomatisiertes Fahrzeug sich selbst so lenkt und beschleunigt, dass es entgegen der Absicht, Eingabe und Erwartung seiner Entwickelnden, Vermarktenden und Nutzenden Passantinnen und Passanten überfährt und tötet, wer oder was ist dann für deren „Zu-Tode-Kommen“ moralisch verantwortlich? Die Entwickelnden haben das sogenannte autonome und selbstlernende System nicht so programmiert, dass es jemanden überfahren soll. Ereignis, Aktion und Folge waren von ihnen, die Absichten haben können, nicht beabsichtigt. Sie haben das von ihnen geschaffene System allerdings auch nicht vollständig „in der Hand“, eben weil es opak, autonom, und selbstlernend ist. Das Fahrzeug selbst wird sich jedoch keiner Richterin und keinem Richter stellen müssen. Wenigstens Angehörige der getöteten Passantinnen und Passanten werden aber nicht nur die Frage nach der kausalen, sondern auch die nach der moralischen sowie, darüber hinaus, der rechtlichen Verantwortung stellen: „Wer oder was ist für den Tod des von uns geliebten Menschen verantwortlich? Wer hat sich Schuld aufgeladen? Wer oder was ist dafür haftbar zu machen? Wer oder was hat darüber Rechenschaft abzulegen?“ Sind es doch die Entwickelnden? Die Vermarktenden? Die Nutzenden? Ist es die Institution des Gesetzgebers, die die Entwicklung und Nutzung zugelassen hat? Sind es die Geldgebenden, ohne deren Mittel die Entwicklung nicht möglich gewesen wäre? Jemand anders? Niemand?

Es gibt Autorinnen und Autoren, die behaupten, dass die Antwort „Niemand“ die richtige ist: In der Ethik der künstlichen Intelligenz wird hinsichtlich der Verantwortungsfrage manchmal die These der Verantwortungslücke vertreten, die seit fast zwanzig Jahren umstritten ist. Wenn jemand davon spricht, dass es in einer Situation eine Verantwortungslücke gibt, dann meint er oder sie dies: Eine Handlung (bzw. eine Tätigkeit) oder eine Handlungskonsequenz, für die jemand oder etwas moralisch verantwortlich gemacht werden sollte, ist derart beschaffen, dass niemand oder nichts moralisch verantwortlich gemacht werden kann. Sie besagt, exemplarisch gewendet, dass in dem Fall des vollautomatisierten Fahrzeugs und der getöteten Passantinnen und Passanten nichts und niemand moralisch verantwortlich ist oder gemacht werden kann. Warum? Weil in diesem Fall nichts und niemand die Kriterien erfüllt, moralisch verantwortlich zu sein. Freilich gab es politische und rechtliche Bedingungen, die die Entwicklung des Fahrzeugs ermöglicht haben. Freilich bedurfte es einer oder eines Geldgebenden, um seine Entwicklung zu forcieren. Freilich hat es jemand entwickelt. Freilich hat es jemand eingesetzt und genutzt. Freilich hat es unbeabsichtigt und unerwünscht reagiert. Dennoch ist das Fahrzeug selbsttätig und in nicht zureichend prognostizierbarer Weise agierend. Es ist eben kein einfaches Werkzeug und kein einfacher Automat: Es ist ein opakes, selbsttätiges System. Aufgrund seiner Opazität und Autonomie, so sagen es die Vertretenden der These der Verantwortungslücke, sind die Institution des Gesetzgebers, Geldgebende, Entwickelnde und Nutzende nicht moralisch verantwortlich. Denn auch wenn diese Akteurinnen und Akteure das Verhalten des Fahrzeugs vorhersagen oder nachvollziehen wollten, unterminiert seine Opazität und Autonomie die Möglichkeit, das zu tun. Und das opake System künstlicher Intelligenz ist wiederum selbst kein Verantwortungsträger in einem moralisch gehaltvollen Sinn (es kann sich und sein Verhalten nicht verantworten). Die Tötung der Passantinnen und Passanten gleicht eher, so könnten Vertretende der These versucht sein, sie zu rechtfertigen, einem tragischen Ereignis oder einem schicksalhaften Geschehen als einem Fall moralisch relevanten Handelns, das es zu bewerten und zu sanktionieren gilt. Und für ein Ereignis wie ein nichtanthropogenes Erdbeben und seine Folgen wird man niemanden moralisch verantwortlich machen. Wir vertreten in diesem Beitrag die Gegenthese: Es gibt in solchen Fällen wie dem des vollautomatisierten Fahrzeugs und der getöteten Passantinnen und Passanten keine Verantwortungslücke, deretwegen niemand die moralische Verantwortung tragen kann und sollte. Stattdessen gibt es geteilte Verantwortung im kollektivethischen Sinne – die Natur des opaken Systems künstlicher Intelligenz bedingt keine moralisch relevante Lücke, sondern erzwingt normativ die Verantwortungszuschreibung und Haftbarmachung derer, die ein solches System in die Welt bringen, bringen lassen und einsetzen. Auch wenn es, wie stets in Fragen kollektiver Verantwortung, sehr schwierig ist, genau zu sagen, wer für etwas Bestimmtes moralische Verantwortung hat, darf dies nicht zu der falschen Annahme führen, dass sie niemand hat. Man kann begründen, dass sie jemand hat und dass wir dann prüfen müssen, wer sie hat und in welchem Maße. Wir beschränken uns in dem vorliegenden Beitrag darauf, zu zeigen, dass die Verantwortungslücke nicht besteht. Mögliche Konsequenzen, die aus dieser Einsicht folgen, werden wir nicht diskutieren.

Kausale und moralische Verantwortung

In der deutschen Sprache unterscheiden wir unter anderem zwischen nichtmoralischer (im Sinne von bloß kausaler) und moralischer Verantwortung. „Nicht moralisch verantwortlich zu sein“ bedeutet hierbei, nur kausal für etwas verantwortlich zu sein. Wir sagen, wenn ein Drucker nicht tut, was er tun soll, etwas wie: „Verantwortlich dafür ist ein Fehler im System.“ Damit meinen wir: Wenn es den Fehler im System nicht geben würde, dann würde der Drucker tun, was er eigentlich tun soll. Wir erwarten aber von dem Fehler im System oder dem Drucker selbst nicht, dass er Rechenschaft über das Problem ablegen kann und dass er schuldhaft einer Pflicht, etwas Bestimmtes tun zu sollen, nicht nachgekommen ist. Bei der moralischen Verantwortung geht es genau darum: Ein Mensch, der sein Verhalten willentlich und absichtsvoll bestimmen kann, soll etwas tun und tut es nicht oder nur unzureichend. Deswegen darf erwartet werden, dass er Rechenschaft abzulegen hat und erklären soll, warum er nicht getan hat, was er hätte tun sollen. Oder, wenn man sich nicht sicher ist, was jemand hätte tun sollen, zu erklären, warum er dachte, dieses und nicht jenes tun zu sollen und entsprechend gehandelt hat. Beispielsweise sagen wir, wenn jemand nicht tut, was er tun soll, etwas wie: „Lewis hätte Alice nicht anlügen dürfen – es ist daher richtig, dass sie ihn zur Rede stellt.“ Oder wir sagen in Fällen, in denen wir nicht sicher sind, was er hätte tun sollen: „Es scheint mir problematisch zu sein, dass Lewis Alice angelogen hat – er sollte uns erklären, warum er das getan hat.“ Sicher ist: Lewis hat Alice angelogen. Kausal verantwortlich dafür, dass die Lüge in der Welt ist, ist Lewis. Eine Lüge auszusprechen, ist aber stets auch von moralischer Relevanz. Wie steht es dann um seine moralische Verantwortung? Betrachten wir eine neue Situation, in der die moralische Verantwortung der Akteurin oder des Akteurs, die oder der kausal verantwortlich ist, eine Rolle spielen kann und spielt – hierbei fallen kausale und moralische Verantwortung bei einem Handelnden zusammen: [S1] Wolfgang möchte sich einen Wagen kaufen, hat aber kein Geld. Sein Freund Siegfried hat es. Wolfgang bittet Siegfried darum, ihm Geld zu leihen, um sich einen Maserati kaufen zu können und verspricht ihm, die geliehene Summe zeitnah zu begleichen, obwohl er sich sicher ist, dass er dies nicht wird tun können. Siegfried, der Wolfgangs finanzielle Situation nicht im Detail kennt, leiht ihm das Geld, ohne formelle Abmachung. Wolfgang kauft das Auto. Nach einem halben Jahr kommt Siegfried auf Wolfgang zu und fragt nach dem Geld. Wolfgang vertröstet, dass er es sicher bald haben werde. Siegfried wartet. Nach weiteren Monaten stellt er Wolfgang erneut zur Rede. Wieder blitzt er ab. Siegfried kündigt Wolfgang daraufhin die Freundschaft auf: „Du hattest nie die Absicht, mir die Summe zurückzugeben! Es ging dir nur um dein Interesse! Du hast mich hinters Licht geführt!“

Betrachten wir nun drei Situationen, in denen die moralische Verantwortung der Agierenden oder Ereignisse, die kausal verantwortlich sind, keine Rolle spielen kann (weil es sie vonseiten dieser Agierenden sowie Ereignisse nicht geben kann) – dies sind [S2], [S4] und [S5] –, sowie eine Situation, in der wir von einer begrenzten (oder halben oder geteilten) moralischen Verantwortung der kausal verantwortlichen Akteurin bzw. des kausal verantwortlichen Akteurs ausgehen dürfen – dies ist [S3].

[S2] Junior, der zweijährige Sohn von Arnold und Danny, wird während einer Party, die Freunde seiner Eltern ausrichten, von diesen alleingelassen. Die Eltern sagen sich: „Uns gehört die Nacht; der Kleine kommt schon allein zurecht – und was soll er schon anstellen?“ Junior krabbelt unbehelligt durch den Garten, jagt einem Glühwürmchen nach und rempelt dabei eine ältere Dame um, die rücklings zu ihm stand und ihn nicht sehen konnte. Die Dame schreit und stürzt. Arnold und Danny eilen, nun von weiteren Gästen gerufen, herbei. Die Dame fragt mit schmerzverzerrtem Gesicht, wie man denn ein so kleines Kind allein durch den Garten krabbeln und aus den Augen lassen konnte. Arnold und Danny schauen erst sich an und dann betreten zu Boden.

[S3] Der sechsjährige Lausbub Michel möchte einer Freundin eine Freude machen und sie überraschen. Er möchte ihr eine Botschaft ins Haus bringen. Er schreibt ihr einen kleinen Zettel, bindet diesen an einen Stein und wirft ihn, auf der Straße stehend, gegen und durch das Fenster, hinter dem er seine Freundin vermutet. Das Glas des Fensters bricht. Zum Glück wird niemand von dem Stein getroffen. Die Eltern der Freundin eilen aus dem Haus und fragen Michel, was er sich dabei gedacht hat. Er entschuldigt sich und sagt, dass er das, den Glasbruch, nicht gewollt habe; und seine Freundin wollte er natürlich auch nicht treffen. Michels Eltern wird eine wütende Rede der anderen Eltern erwarten (in Anbetracht der Sorge um ihre Tochter, die hätte getroffen werden können) und eine Rechnung über die Installationskosten eines neuen Fensters.

[S4] Rexi, die Schäferhündin von Leonora, entfernt sich während eines frühmorgendlichen Spaziergangs von ihrer Halterin. Normalerweise ist zu dieser Zeit niemand auf der Straße, sodass Leonora Rexi unangeleint lässt. Rexi ist auch eine wohlerzogene Hündin, die in der Regel menschenfreundlich ist. Rexi, nicht mehr in Leonoras Sichtfeld, trifft unerwartet auf den Spaziergänger Immanuel, der am Wegesrand steht und nichts tut, was Rexi normalerweise reizen könnte. Rexi springt aber unerwarteterweise an ihm hoch und fletscht kurz mit den Zähnen, was Immanuel, der Angst vor Hunden hat, fast in Panik versetzt; gerade noch so kann er stillhalten und Rexi lässt wieder von ihm ab.

[S5] Kim liegt nachts in seinem Bett, als ihn ein schweres Erdbeben aus dem Schlaf reißt. Hastig eilt er aus dem Haus, um seine Haut zu retten, und muss mit ansehen, wie sein Haus in sich zusammenfällt. Das Erdbeben zerstört sein Obdach. Es traf ihn (und alle anderen von ihm Betroffenen in der näheren Umgebung) ohne Vorwarnung. Kim und die anderen Betroffenen hatten zuvor auch nichts getan, was das Erdbeben hätte verursachen können.

Warum spielt in [S1] die moralische Verantwortung des kausal verantwortlichen Akteurs eine Rolle, in [S2], [S4] und [S5] nicht, in [S3] bedingt? Wolfgang ist ein Wesen, das fähig ist, Entscheidungen zu treffen, zu handeln und mögliche Konsequenzen seines Handelns abzusehen. Er kann in dem geschilderten Fall auch ganz gut abschätzen, welche Konsequenzen wahrscheinlich eintreten werden. Er weiß auch, was es bedeutet, einander zu vertrauen. Er hätte den Wagen nicht kaufen müssen; er hätte Siegfried nicht um Geld bitten müssen. Wolfgang wurde zudem nicht von außen gezwungen, Siegfried um Geld zu bitten; er hätte dies auch nicht tun können, hatte hierfür einen Spielraum. Aber freiwillig und absichtsvoll bat er um Geld. Wolfgang wurde nicht willenlos gemacht, nicht unter schwerste Drogen gesetzt oder einer Gehirnwäsche unterzogen – er war voll zurechnungsfähig. Und Wolfgang hätte, nachdem ihm Siegfried das Geld gegeben hat, immer noch zurückziehen können. Er hätte Siegfried den Fehler, ihn so um Geld zu bitten, eingestehen können. Er hätte auch den Wagen (mit Verlust) zurückgeben und Siegfried zumindest einen Teil der Geldsumme erstatten können. Wolfgang hätte jederzeit etwas tun können, das vielleicht zur Rettung der Freundschaft beigetragen hätte. Wolfgang ist in der Lage, seine moralisch relevante Entscheidung und seine Handlung zu begründen – ob er eine normativ gute Begründung findet, ist eine andere Frage. Wolfgang ist prinzipiell in der Lage, Rede und Antwort zu stehen und sich zu rechtfertigen und zu kritisieren. Angesichts dessen, dass er Siegfried zwei Übel zugefügt hat – zum einen hat er ihn um das Geld gebracht, zum anderen hat er seinen Glauben an die Freundschaft, ein Vertrauensverhältnis, erschüttert –, liegt der Bedarf an einer Rechtfertigung ethisch auf der Hand. Und dass er selbst derjenige ist, der sich in diesem Fall zu rechtfertigen hat, steht außer Frage.

Vieles von dem, was Wolfgang in [S1] kann oder gekonnt hätte, können und könnten Junior in [S2], Rexi in [S4] und das Erdbeben in [S5] nicht. Offensichtlich sind Junior, Rexi und das Erdbeben jeweils kausal verantwortlich für den Sturz der Dame, die Angst des Spaziergängers und das Zerstören des Hauses. Sie sind in erster Linie diejenigen, ohne die eine bestimmte Folge nicht eingetreten wäre. Aber man würde sie nicht (und zwar gar nicht) als moralisch verantwortlich ansehen. Junior entscheidet sich nicht dafür, die ältere Dame stürzen zu lassen. Er versteht nicht, was das heißt. Er würde es auch nicht verstehen können, wäre jemand bereit, ihm dafür einen Vorwurf zu machen. Er weiß nicht, was ein Vorwurf ist und warum man jemandem Vorwürfe machen kann. Weder kann Junior abwägen und urteilend entscheiden, was er tut, noch weiß er, was er tut, noch kann er vernünftig absehen, was eine bestimmte Tat zur Folge haben wird. Ihm mangelt es an den Eigenschaften und Fähigkeiten, moralisch verantwortlich sein zu können. Junior wird, wenn er sich gewöhnlich entwickelt, einst ein Verantwortungsträger sein. Zurzeit jedoch ist er dies nicht. Die Hündin Rexi und das Erdbeben, ein nichtmenschliches Tier und ein Naturereignis, haben solche Eigenschaften und Fähigkeiten nicht und werden sie niemals haben. Ihnen mangelt es im Gegensatz zu Junior an jedem Potenzial, sie haben zu können.

In den Szenarien [S1], [S2] und [S4] entsteht keine Verantwortungslücke; in [S5] hingegen schon. Siegfried wird sich in [S1] an Wolfgang wenden, um entschädigt zu werden und wenn dies nicht hilft, sich an Dritte wenden, um zu prüfen, ob man Wolfgang vonseiten des Rechts zu einer Entschädigung zwingen kann: Der kausal Verantwortliche ist auch, wie oben bereits geschildert, der moralisch Verantwortliche und der, den man gegebenenfalls auch rechtlich verantwortlich zu machen sucht. Es gibt in [S1] keine Verantwortungslücke.

Die ältere Dame in [S2] wird sich an die Eltern von Junior, an Arnold und Danny, wenden, um sich zu beschweren und gegebenenfalls Geld für die Arztkosten zu erhalten, im Notfall rechtlich zu erstreiten: Nicht der kausal Verantwortliche ist auch der moralisch Verantwortliche, sondern die Aufsichtspersonen des in diesem Fall kausal Verantwortlichen werden als moralisch (und rechtlich) Verantwortliche angesprochen, und es ist zu prüfen, ob sie den Schaden hätten verhindern können und verhindern sollen. Schadensersatz sollen sie leisten, nicht Junior: Die Eltern werden angesichts ihrer behaupteten Verantwortungslosigkeit gescholten und für Juniors Verhalten haftbar gemacht. Auch in [S2] gibt es keine Verantwortungslücke.

Immanuel in [S4] wird die Halterin Leonora, wenn sie sich Rexi und ihm nähern wird, einen Vorwurf machen, nämlich den, dass die Hündin unangeleint ist und fremde Menschen anspringt: Nicht die für das Erschrecken unmittelbar kausal verantwortliche Hündin ist moralisch verantwortlich, sondern die Hundehalterin wird in die Pflicht genommen. Hätte sie, als moralisch Verantwortliche, in erster Linie anders gehandelt (Anleinen), hätte die Hündin in zweiter Linie nicht Immanuel anspringen können.7 Auch in [S4] gibt es keine Verantwortungslücke.

In [S5] hingegen schon. Kim wird niemandem und nichts einen Vorwurf machen können, niemanden zur Rechenschaft ziehen, das kausal Verantwortliche (das Erdbeben) nicht als Objekt der Vergeltung erachten können, auch nichts an dessen Stelle setzen können, sondern vielleicht an seinem Schicksal leiden und sich an seine Versicherung wenden, um zu prüfen, ob ihm aufgrund seiner vorgängigen Vertragsschlüsse eine Entschädigung zusteht (angesichts eines Schadens, für den niemand und nichts moralisch verantwortlich ist).

Wie verhält es sich in [S3]? Einiges von dem, was Wolfgang in [S1] kann oder gekonnt hätte, kann Michel in [S3] nicht, manches noch unvollkommen. Michel ist sich seiner selbst bewusst. Er kann sprechen. Er hat ein Verständnis davon, was es heißt, miteinander umzugehen. Er wurde bis zum sechsten Lebensjahr nicht nur am Leben erhalten, sondern auch mindestens in Ansätzen erzogen. Michel kann weniger gut als Wolfgang abschätzen, welche Folgen seine Handlungen haben werden, aber er kann es. Michel weiß auch nicht so gut, was es bedeutet, jemandem einen Sachschaden oder einen anderen Schaden zuzufügen. Ihm mangelt es (noch) an Erfahrungen und an der Ausprägung eigener Urteilskraft. Allerdings kann Michel bereits deutlich mehr als Junior in [S2]: Er ist schon weiter auf dem Weg, ein Akteur zu werden, dem man uneingeschränkt moralische Verantwortung wird zusprechen können. Der Sechsjährige darf im Dorf, das er kennt, allein spazieren und seine Freundin besuchen. Er ist dazu in der Lage, und es ist ihm erlaubt. Zugleich hätten seine Eltern ihm womöglich bereits zuvor mehr über Schäden an Leib und Leben sowie Sachschäden und deren Zustandekommen beibringen können, womöglich sollen. Man kann sagen, dass die kausale Verantwortung für die Tat bei Michel lag, die moralische Verantwortung jedoch bei Michel und seinen Eltern. Auch hier gibt es also keine Verantwortungslücke, auch wenn es sehr starke mildernde Umstände für beide Parteien, Michel und die Eltern, gibt, die in einer ethischen Beurteilung ins Gewicht fallen müssen.

Der Fall der opaken, autonomen künstlichen Intelligenz

Was ist in Situationen der Fall, in denen ein opakes System künstlicher Intelligenz agiert und für etwas kausal verantwortlich ist, für das man es eigentlich auch moralisch verantwortlich machen möchte? Nehmen wir, um dies zu veranschaulichen, an, dass sich dies ereignet:

[S6] Durch den Schuss der autonomen, selbstlernenden Waffe Killbot 3000, die in einem Krieg zweier verfeindeter Staaten eingesetzt wird und der zentrale Regeln des Kriegsrechts einprogrammiert sind, kommt ein vierjähriges Kind, also ein Mensch, der nicht zu den Kampftruppen gehört, also kein Kombattant ist, zu Tode. Dies ist ein Bruch mit den Regeln des Kriegsrechts. Es gab auch keine unübersichtliche Lage: Das Kind war eigentlich als Kind zu identifizieren (und nicht etwa mit einem kleinwüchsigen Erwachsenen zu verwechseln) und es gab zurzeit der Tötung des Kindes keine Kampfhandlung, in der der Roboter involviert war. Es ist naheliegend, dass die Eltern des Kindes den, der für den Tod des Kindes verantwortlich ist, irgendwie zur Rechenschaft ziehen wollen.

Der Killbot 3000 hat in der Situation autonom agiert. Kein Mensch hat einen Knopf gedrückt, dessentwegen Killbot 3000 geschossen hat. Als opakes System war es für Außenstehende auch nicht vorhersehbar gewesen, dass Killbot 3000 so agieren wird. Und es ist für die Außenstehenden zurzeit des Schusses und in der Zeit nach dem Schuss kaum möglich, genau zu erklären, warum Killbot 3000 geschossen hat. Durch seine selbstlernende, autonome Funktionsweise kennt niemand die genauen Umstände, unter denen die Waffe feuert, noch können Außenstehende die Prozesse nachvollziehen, nach denen die Entscheidung zu feuern getroffen wird.

Wer oder was ist in [S6] moralisch verantwortlich? Ist hier überhaupt jemand oder etwas in diesem Sinne verantwortlich? Diejenigen, die die These der Verantwortungslücke vertreten, sagen, dass niemand und nichts moralisch verantwortlich ist. Eine Analyse von [S6] zeigt dies:

Erstens hätte das Kind nicht durch den Killbot 3000 zu Tode kommen können, hätte ihn nicht jemand entwickelt und die Entwicklung angeordnet und finanziert.

Zweitens wäre das Kind nicht durch den Killbot 3000 zu Tode gekommen, hätte man ihn nicht in dem Krieg eingesetzt.

Drittens ist das Kind durch den Killbot 3000 zu Tode gekommen, obwohl die Entwickelnden zumindest einiges daran gesetzt haben, dass derlei nicht passiert.

Viertens ist das Kind durch den Killbot 3000 zu Tode gekommen, weil dieser in einer Weise agiert hat, die so nicht vorauszusehen gewesen und (bislang) kaum nachzuvollziehen ist. Das Kind ist durch einen Akteur zu Tode gekommen, dessen Herstellende grundsätzlich nicht in der Lage sind, ihn vollumfänglich einzusehen, zu verstehen und sein Agieren vorauszusehen.

Fünftens ist das Kind durch ein opakes System zu Tode gekommen, das selbst nicht zur Verantwortung fähig ist, weil es nicht versteht, was es heißt, Verantwortung zu übernehmen, nicht moralische Werte bestimmen und moralisch evaluieren kann, die moralische Relevanz seiner Aktionen nicht nachempfinden kann und nicht Rechenschaft ablegen kann über das, was es getan hat: Man kann den Killbot 3000 überhaupt nicht moralisch zur Verantwortung ziehen.

Im Sinne der nichtmoralischen kausalen Verantwortung ist der Killbot 3000 in [S6] sehr wohl verantwortlich: Wenn er nicht geschossen hätte, dann wäre das Kind nicht zu Tode gekommen; weil er gefeuert hat, ist das Kind zu Tode gekommen. Dies ist unstrittig. Strittig ist, ob jemand im Sinne der moralischen Verantwortung verantwortlich ist. Es ergeben sich hierzu vier mögliche Thesen:

Erste These: Nichts und niemand ist für den Tod des Kindes moralisch verantwortlich.

Zweite These: Der Killbot 3000 ist für den Tod des Kindes moralisch verantwortlich.

Dritte These: Jemand, ein Mensch (oder eine Menge von Menschen), ist für den Tod des Kindes moralisch verantwortlich.

Vierte These: Der Killbot 3000 und jemand sind für den Tod des Kindes gemeinsam moralisch verantwortlich.

Die erste These ist die der Verantwortungslücke. Sie wäre widerlegt, wenn eine der drei anderen Thesen richtig ist. Die zweite These kann angesichts dessen, dass der Killbot 3000 nicht die Kriterien erfüllt, moralisch verantwortlich zu sein, nicht richtig sein. Er ist noch nicht einmal so weit, wie es Michel in [S3] ist. In bestimmtem Sinne gilt der Killbot 3000 als autonom, intelligent und selbstlernend. Aber zumindest noch gilt unter anderem dies: Er kann nicht moralisch evaluieren. Er kann sich nicht rechtfertigen. Er hat und kennt keine Schuld. Ihm kann man nichts vergelten. Er kennt kein eigenes und fremdes Übel. Er hat überhaupt keine Urteilskraft. Er kennt keine moralische Unsicherheit. Nehmen wir an, dass dies stimmt, dann kann die zweite These nicht richtig sein, und dann kann auch die vierte These nicht richtig sein. Die Kandidatin, die übrig bleibt, um die These der Verantwortungslücke zurückzuweisen, ist die dritte These. Ihr zufolge ist jemand für den Tod des Kindes moralisch verantwortlich – auch wenn es eventuell strittig ist, wer genau dies ist.

Wenn die erste These richtig wäre, dann hätten wir es mit einer Ähnlichkeit der Zurechenbarkeit von Verantwortung in den Fällen [S5] und [S6] zu tun. In [S5] wie in [S6] würde es dann eine Verantwortungslücke geben. Aber diese Ähnlichkeit ist grundsätzlich nicht gegeben. Denn das nichtanthropogene Erdbeben ist ein Naturereignis ohne Zweck, ohne Absicht, ohne Herstellende, ohne Zulassende. Der Killbot 3000 hingegen ist ein Artefakt mit programmierten Zwecken, absichtsvoll produziert, mit Herstellenden und einer zulassenden Autorität. Ein Artefakt wird von jemandem, der es bestimmter Zwecke wegen ersonnen hat und nutzen möchte, in die Welt gebracht. Besondere Artefakte wie der Killbot 3000 haben angesichts ihrer Lernfähigkeit und Autonomie die (vielleicht) unangenehme Eigenschaft, immer unabhängiger zu werden. Gewiss bleibt allerdings: Jemand hat ihn absichtlich hervorgebracht. Beim Erdbeben ist dies nicht der Fall. Alles Gemachte lässt sich auf Machende und deren Absichten zurückführen. Und für Mängel des Gemachten, beispielsweise, wird man in erster Linie die Machenden in die Verantwortung nehmen. Das Erdbeben ist ein schicksalhaftes Ereignis, das wir nicht in der Hand haben und haben können; der Killbot 3000 ist ein gemachtes Werk, das wir zumindest in Teilen in der Hand haben und gar nicht erst hätten in die Welt bringen müssen. Weil es opak, autonom und selbstlernend ist, haben wir es nicht (mehr) vollständig in der Hand, aber es ist auch nicht etwas vollends Unbeherrschbares und Schicksalhaftes sowie nichts, was hinsichtlich seiner Entstehung nicht hätte verhindert werden können.

Der Killbot 3000 ist zweifellos ein besonderes Artefakt. Er ist kein Naturereignis (Erdbeben), kein einfaches Werkzeug (Hammer), kein autonomer moralischer Akteur (Wolfgang), kein Akteur, von dem wir mit guten Gründen annehmen dürfen, dass er einst ein moralischer Akteur sein wird (Junior, in weiterer Ferne, und Michel, in näherer Ferne) und kein Wesen, von dem wir wissen, dass es heute und einst ein nichtmoralischer Akteur sein wird (die Hündin Rexi).

Bei allen Ungereimtheiten kommt der Fall [S6] am ehesten den Fällen [S2] und [S4] nahe. Killbot, Kind und Hund tun etwas von sich aus. Sie haben kein Bewusstsein von dem, was sie tun und können es nicht moralisch bewerten. Sowohl das zweijährige Kind als auch der Hund sind Naturwesen. Hierin liegt offensichtlich ein Unterschied zwischen dem zweijährigen Kind und dem Hund auf der einen und dem Killbot 3000 auf der anderen Seite. Das zweijährige Kind ist ein durch eine sexuelle Handlung seiner Eltern in die Welt Gebrachtes, das, solange es selbst kein moralischer Akteur ist, unter der Obhut, Erziehung und Aufsicht der Eltern steht, weil sie es in die Welt gebracht haben und wissen konnten, dass es Vorhersehbares und Nichtvorhersehbares tun wird, ohne in seinen ersten Lebensjahren genau zu wissen, was es tun wird. Junior hat davon noch überhaupt keinen Begriff (im Gegensatz zu Michel). Er macht Vorhersehbares und Nichtvorhersehbares. Sowohl für das eine als auch für das andere können Eltern, wenn sie beispielsweise ihre Aufsichtspflicht verletzen, moralisch verantwortlich und haftbar gemacht werden. Auch ist dies so im Fall der Hundehalterin in [S4], obgleich die Hündin Rexi nicht das Potenzial hat, moralische Akteurin werden zu können. Springt sie jemanden an, dann wird die Halterin, die eine falsche Annahme über das Verhalten der Hündin hat und sie auf einer Straße bzw. auf Gehwegen unangeleint laufen lässt, zur moralischen (und vielleicht auch rechtlichen) Verantwortung gezogen, wenigstens dann, wenn etwas passiert, das nicht passieren darf. Ob der Killbot 3000 das Potenzial hat, moralischer Akteur werden zu können oder nicht, ist für die Haftbarmachung von jemandem, der mit seiner Zulassung, Entwicklung, Finanzierung und Nutzung zu tun hat, in seinem jetzigen Stadium unerheblich. Sicher ist: Für das Abfeuern genau des Schusses in [S6] sind die Zulassenden, Entwickelnden, Herstellenden, Finanzierenden und Nutzenden von Killbot 3000 nicht kausal verantwortlich. Sie sind aber hinsichtlich dieses Artefakts kausal dafür verantwortlich, dass es es überhaupt gibt und dass es so ausgestattet ist, dass es Schüsse abfeuern kann. Und sie sind kausal verantwortlich dafür, etwas in die Welt gebracht zu haben, das vielleicht Nichtvorhersehbares tut: Mit diesem Risiko mussten die Zulassenden, Entwickelnden, Herstellenden, Finanzierenden und Nutzenden kalkulieren. Das Risiko kannten sie. Sie mussten es kennen. Schlimmer noch: Sie kalkulierten fahrlässig angesichts von höchster Unsicherheit. Daraus können sie sich nicht winden. Und wie im Fall des zweijährigen Kindes in [S2], das alleingelassen wird, sind die Genannten – in welchem Maße jeweils, ist eine schwierige Frage, weil viel mehr Hervorbringende als die Eltern in [S2] eine Rolle spielen – moralisch und, je nach Konstellation und Schwere dessen, was der Killbot 3000 tut, auch rechtlich dafür verantwortlich.

Schluss

In dem vorliegenden Beitrag haben wir dafür plädiert, die These der Verantwortungslücke im Zusammenhang mit opaken Systemen künstlicher Intelligenz zurückzuweisen: Ihr zufolge sind Aktionen dieser Systeme und deren Folgen solche, für die nichts und niemand moralisch (und eventuell auch rechtlich) verantwortlich gemacht werden kann. Wir haben zu zeigen versucht, dass dies nicht der Fall ist, und zwar aufgrund der Eigenart dieser Systeme, die weder Naturereignis sind, noch schicksalhaft auftauchen, noch moralische Akteure sind; und weil es Systeme sind, mit deren Entwicklung, Herstellung und Nutzung die Zulassenden, Entwickelnden, Herstellenden, Finanzierenden und Nutzenden wissen müssen, welches Risiko sie eingehen. Ihre Aktionen und deren Folgen wie Naturereignisse ansehen zu wollen oder wie die Handlungen von moralischen Akteuren und deren Resultate, beachtet die besondere Art des Artefakts nicht, das hier agiert.

Wer als Verantwortungsträgerin oder Verantwortungsträger selbstlernende, autonome Systeme künstlicher Intelligenz in die Welt bringen möchte, um bestimmte Zwecke zu erfüllen, tut gut daran, das Problem der Opazität dieser Systeme anzugehen, um sie beherrschbarer und vorhersehbarer, kurzum: kontrollierbarer zu machen, und somit auch die eigene moralische Verantwortung für ihr Sein und Wirkenkönnen nicht fälschlicherweise zu negieren, sondern anzuerkennen und produktiv mit ihr umzugehen. Solche Systeme transparenter zu machen, wie es im Kontext der sogenannten erklärbaren künstlichen Intelligenz versucht wird, ist hierfür gewiss dann der richtige Ansatz, wenn man überhaupt an dem Projekt festhalten möchte, solche Systeme zu entwickeln und in die Welt zu bringen.

Christoph Sebastian Widdau, Carlos Zednik in: Algorithmen und Autonomie – Interdisziplinäre Perspektiven auf das Verhältnis von Selbstbestimmung und Datenpraktiken; Verlag Barbara Budrich, Opladen, Berlin, Toronto; 2022

Zur einfacheren Lesbarkeit wurden die Literatur- und Quellenverweise entfernt.

Creative Commons https://creativecommons.org/licenses/by/4.0/


© Swiss Infosec AG 2024