03/2025
Einführung
Die neueste digitale Technologie, nämlich die künstliche Intelligenz (KI), wird derzeit mit grosser Sorge betrachtet. Dies hat dazu geführt, dass führende Politiker und prominente Persönlichkeiten aus der Technologiebranche auf dem „AI Safety Summit“ in Grossbritannien zusammenkamen, um über die tiefgreifenden Risiken der KI zu diskutieren. Darüber hinaus ist die Europäische Union (EU) dabei, ihr KI-Gesetz fertig zu stellen, die Zivilgesellschaft setzt sich für die Einbeziehung von Gründungsmodellen in die KI-Regulierung ein, und die Regierung der Vereinigten Staaten erlässt eine Verordnung zur Regulierung grosser Sprachmodelle (LLMs). Obwohl eine Eskalation der menschlichen Sicherheitsrisiken durch den zunehmenden Verlust der Privatsphäre, die Suchtökonomie und algorithmische Verzerrungen weithin anerkannt sind, zeigen wissenschaftliche Erkenntnisse, dass die Regulierung digitaler Technologien beim Schutz grundlegender Menschenrechte erfolglos ist. Globale KI-Bedrohungen sind „neu“ und „anders“ als die Bedrohungen durch nukleare, biologische und chemische Technologien, und die vorherrschenden Sicherheitsregime sind „alt“ im Umgang mit ihnen. Dieses Papier versucht, diese ’neuen‘ Unterschiede zu verstehen, indem es eine Typologie von drei ‚digitalen Technologie-Sicherheitskulturen‘ entwickelt, um die Herausforderungen beim Umgang mit den Bedrohungen, die von KI-gestützten digitalen Technologie-Innovationen für die Menschen ausgehen, besser zu verstehen. Wir verwenden die Begriffe ‚Sicherheitskulturen‘ direkt aus Mary Kaldors Arbeit über menschliche Sicherheit. Bei der Entwicklung der drei kulturellen Typen verknüpfen wir die Disziplin der internationalen Beziehungen (IR) und ihr Teilgebiet der kritischen Sicherheitsstudien mit dem Bereich der Technologiefolgenabschätzung (TA), um die Sicherheitsdimensionen der Regulierung digitaler Technologie zum Zwecke der menschlichen Sicherheit und des Schutzes des humanitären Raums zu erforschen.
Kaldor verwendet den Begriff Sicherheitskultur, um „ein Verhaltensmuster zu bezeichnen, das Normen und Standards umfasst, die einer bestimmten Interpretation von Sicherheit entsprechen, die mit einer Form von politischer Autorität oder einer Reihe von Machtbeziehungen verbunden ist. Eine Sicherheitskultur umfasst verschiedene Kombinationen von Ideen, Regeln, Menschen, Werkzeugen, Taktiken und Infrastrukturen, die mit verschiedenen Arten von politischer Autorität verbunden sind, die zusammenkommen, um Gewalt in grossem Massstab zu bekämpfen oder sich daran zu beteiligen“. In diesem Beitrag wird der Begriff Sicherheit verwendet, um die Aufmerksamkeit auf die Verletzung von Menschenrechten wie Privatsphäre, Freiheit von Diskriminierung, Sicherheit, Freiheit von grausamer Behandlung, Gleichheit, Demokratie, soziale Sicherheit, Arbeitsschutz und Bildung durch die Entwicklung, Herstellung und Nutzung technologischer Innovationen am Beispiel von KI-gestützten digitalen Technologien zu lenken. Ziel ist es, KI-Innovationen als Teil eines Ökosystems zu betrachten, das den Fortschritt bei der Erhaltung und Verbesserung des menschlichen Lebens und Wohlbefindens aufrechterhält, und gleichzeitig die Aufmerksamkeit auf die Strukturen und Prozesse in der Gesellschaft zu lenken, die diesen Fortschritt gewährleisten. Die Strukturen und Prozesse werden hier mit einer ‚TA-Sicherheitskultur‘ in Verbindung gebracht, die auch die Forschungslücke darstellt, die dieser theoretische Beitrag zu schliessen beabsichtigt. Unsere Methode stützte sich auf eine Literaturübersicht über KI-Bedrohungen, Sicherheitskulturen und TA mit dem Ziel, die bestehenden Diskussionen über die Rolle der Kultur im Umgang mit der Ambivalenz aufkommender Technologien fortzusetzen. Die Kultur ist die Einheit der Analyse, nicht Technologien, Sektoren oder Produkte. Durch die Betrachtung der TA durch eine IR-Linse kann die Dimension der globalen Governance für den Schutz der Menschenrechte angesichts des technologischen Wandels eingehender untersucht werden.
Im folgenden Abschnitt wird das Konzept der Sicherheitskulturen im Bereich der digitalen Technologien entwickelt, wobei die Hauptinspiration von Mary Kaldors Arbeit über Sicherheit ausgeht und sie mit den jüngsten Schritten in der digitalen Technologieentwicklung, nämlich den KI-Fähigkeiten, in Verbindung gebracht wird. Danach wird die Sicherheitskultur der doppelten Verwendung beschrieben, die historisch auf der internationalen Zusammenarbeit bei der Regulierung von atomaren, biologischen und chemischen Waffen beruht. Es folgt eine Diskussion über die Sicherheitskultur im Bereich der Cybersicherheit, die sich vom Dual-Use-Paradigma dadurch unterscheidet, dass sie sich stärker auf private Unternehmen und private Investoren stützt. Danach wird die TA-Sicherheitskultur erläutert, die wir mit einem sozialen und humanistischen Fokus auf den Schutz der Rechte des Einzelnen angesichts der digitalen Innovation in Verbindung bringen, der jedoch nicht über den Governance-Rahmen und die Unterstützung des Privatsektors der beiden anderen Kulturen verfügt. Der letzte Abschnitt schliesst mit einem Fazit.
Sicherheitskulturen für digitale Technologien
Die Bedrohung der Menschheit durch KI ist derzeit ein „heisses Thema“ in der Literatur. Die Machtkonzentration in den Händen einiger weniger Grossunternehmen, die rasch zunehmende Fähigkeit, Fehlinformationen in grossem Umfang zu verbreiten und die Herausforderungen, die diese Prozesse für die Demokratie mit sich bringen, stehen im Gegensatz zu den Vorteilen der KI für den Fortschritt in Bereichen wie Wissenschaft und Medizin. Spätestens seit den 1960er Jahren ist wissenschaftlich erwiesen, dass Wissenschaft und Technologie nicht die Ursache für gesellschaftliche Missstände wie Voreingenommenheit und Ungleichheit sind, sondern dass sich Technologie durch sozio-technische und techno-ökonomische Prozesse und Kulturen entwickelt und sich in bereits bestehende Pfade einbettet. Um gesellschaftlichen Defiziten wie Umweltzerstörung und Ungleichheit entgegenzuwirken und die Technologie nicht auf diese bestehenden Defizite der sozioökonomischen Systeme aufzupfropfen, ist es hilfreich, die Art und Weise zu betrachten, wie das aktuelle technologische Paradigma mit ihnen interagiert. Der Begriff „digitale Sicherheitskulturen“ bezieht sich auf die verschiedenen Methoden und Strategien, die zum Schutz der Menschen vor digitalen Bedrohungen eingesetzt werden. Das ist wichtig, denn die fortschreitende Entwicklung der digitalen Technologie birgt nicht nur im militärischen, sondern auch im nicht-militärischen Bereich Risiken, die sich auf die Sicherheit und das Wohlbefinden der Menschen auswirken. Kaldor stellt in ihrer Beschreibung der Entwicklung des Konzepts der ‚Sicherheit‘ (das breiter definiert ist als technologische Bedrohungen) in Anlehnung an Buzan und Hansen fest, dass der Begriff zwar ursprünglich zur Definition von Kriegs- und Verteidigungsbedrohungen verwendet wurde, in jüngerer Zeit aber auch den gesellschaftlichen Zusammenhalt sowie nicht-militärische Bedrohungen und Schwachstellen einschliesst. Der Begriff Sicherheit kann sowohl für Ziele (wie z.B. Sicherheit) als auch für Praktiken und Artefakte (wie z.B. Scanner an Flughäfen) verwendet werden. Der Bericht des Entwicklungsprogramms der Vereinten Nationen beschreibt sieben Arten von Sicherheitsrisiken: Wirtschaft, Ernährung, Gesundheit, Umwelt, Persönlichkeit, Gemeinschaft und Politik. Sicherheitskulturen sind nach Kaldor nicht national, sie beinhalten eine Strategie, konzentrieren sich auf Funktionen und sind durch bestimmte Arten der Machtausübung definiert. Ein zentrales Merkmal dieser Konzeptualisierung von Kulturen ist der Übergang und der Wandel. Kaldor weist darauf hin, dass es sinnvoll ist, die Mechanismen zu untersuchen, durch die Kulturen reproduziert werden, wie z.B. den Markt, Veranstaltungen, öffentliche Debatten, Mediendarstellungen, berufliche Laufbahn- und Ausbildungsstrukturen, um herauszufinden, wie man die Vorgänge, die die menschliche Sicherheit verschlechtern, umkehren kann.
Unter ‚digitaler Technologie‘ versteht man ein sich dynamisch entwickelndes Bündel von Produkten, Dienstleistungen, Wissen, Fähigkeiten und Ressourcen, das seinen Ursprung in der Telekommunikationsindustrie der 1960er und 70er Jahre hat und mit einer hohen Datenverarbeitungsleistung einhergeht. Das Paradigma der Informations- und Kommunikationstechnologien (IKT) ist gekennzeichnet durch Veränderungen in der Produktion, im Design, im Konsum, in der Geschwindigkeit und Einfachheit der Kommunikation und Vernetzung sowie in den Interaktionen zwischen Menschen. Zu den wichtigsten Veränderungen der letzten Zeit gehören der Einsatz von Robotik, Biotechnologie und das Internet der Dinge. Ein weiterer Schwerpunkt liegt auf neu entstehenden Produkten und Dienstleistungen, die durch künstliche Intelligenz ermöglicht werden, sowie auf den damit verbundenen Veränderungen in der Regierungsführung, den Machtstrukturen und der menschlichen Identität, die die Aufmerksamkeit auf die Bedrohungen für Menschlichkeit und Zivilisation lenken.
Das Risiko, dass die Technologie die Menschheit negativ beeinflusst, ist natürlich keine neue Sorge. Propaganda, Fehlinformationen, präzise Drohnenangriffe, süchtig machende Produkteigenschaften und voreingenommene Algorithmen sind zwar alte Themen, aber sie haben Auswirkungen, die über den normalen technologischen Fortschritt der Automatisierung hinausgehen, auch wenn sie einige Ähnlichkeiten aufweisen. Ein zentrales Anliegen ist das Ausmass und der Grad, in dem sie mit den sozialen, bürgerlichen und menschenrechtlichen Institutionen in Konflikt geraten und diese allmählich aushöhlen, deren Aufbau sehr viel Zeit in Anspruch genommen hat (wie z.B. die individuellen Eigentumsrechte, das Recht auf Privatsphäre und soziale Sicherheit). In den vier vorangegangenen technologischen Revolutionen gab es nicht so viele Institutionen zum Schutz der Menschenrechte und des sozialen Wohlergehens wie heute. Im Jahr 2023 wird die Allgemeine Erklärung der Menschenrechte 75 Jahre alt. Kinder wurden nicht während der industriellen Revolution vor harter Arbeit geschützt, sondern erst nach ihr. Der soziale Wohlfahrtsstaat in Grossbritannien ist ein Phänomen der Nachkriegszeit. Die digitalen Veränderungen, die die Menschenrechte verletzen, sind sehr schrittweise, viel subtiler als bei früheren technologischen Revolutionen und daher schwieriger rückgängig zu machen.
Sicherheitskultur mit doppeltem Verwendungszweck
Die vielleicht älteste Kultur der Technologiesicherheit hat ihre Wurzeln in der Ära des Kalten Krieges (obwohl das Konzept des doppelten Verwendungszwecks bis ins 17. Jahrhundert zurückverfolgt werden kann) und konzentrierte sich ursprünglich auf die internationale Kontrolle von nuklearen, chemischen und biologischen Waffen. Der Begriff ‚dual use‘ wurde ursprünglich verwendet, um sich auf Technologien zu beziehen, die sowohl für militärische als auch für zivile Zwecke eingesetzt werden können, hat sich aber weiterentwickelt und umfasst nun auch die Begriffe friedliche versus nicht-friedliche, legitime versus illegitime und wohlwollende versus böswillige Technologienutzung. Eine wichtige Institutionalisierung der Sicherheitskultur für Technologien mit doppeltem Verwendungszweck wurde für Atomwaffen im Vertrag über die Nichtverbreitung von Kernwaffen (NPT) (in Kraft seit 1970) und für Chemikalien im Übereinkommen über das Verbot der Entwicklung, Herstellung, Lagerung und des Einsatzes chemischer Waffen und über die Vernichtung solcher Waffen (CWC) (in Kraft seit 1997) geschaffen, das aus der Ära des Kalten Krieges hervorgegangen ist. Ziel des CWC war es, „die Entwicklung, Herstellung, Beschaffung, Lagerung, Aufbewahrung, Weitergabe und den Einsatz von chemischen Waffen“ auf internationaler Ebene zu regeln. Im Gegensatz zum NPT, der nicht von einer zivilen Industrie abhängig war, hatte das CWC eine einzigartige Auswirkung auf die Privatwirtschaft, nämlich die chemische Industrie. Wie bei den digitalen Technologien, die ebenso wie die Chemieindustrie in erster Linie eine zivile Industrie sind, besteht die grösste Herausforderung darin, die Entwicklung illegaler Waffen und die böswillige Verwendung ziviler Produkte zu verhindern und gleichzeitig deren wissenschaftlichen, technischen und zivilen Nutzen zu erhalten.
Die Sicherheitskultur für Technologien mit doppeltem Verwendungszweck für nukleare und chemische Technologien wurde von verschiedenen Akteuren aus dem zivilen Sektor, öffentlichen Entscheidungsträgern, privaten Akteuren, Regierungen, NROs und, insbesondere für Chemikalien, dem privaten Sektor geschaffen. Es dauerte 50-70 Jahre, bis Vereinbarungen und Verträge zustande kamen. Nichtstaatliche Akteure und ihre Netzwerke spielten eine entscheidende Rolle bei der Ausgestaltung dieser Kultur. Das Fehlen einer zentralen Behörde oder einer globalen Technologie-Governance auf internationaler Ebene und die Unterstützung der Privatwirtschaft machen die Prozesse sehr langsam. Darüber hinaus stellt McGrew fest, dass „internationale Regime und Institutionen des globalen Managements dazu neigen, nicht über die autoritativen Mittel zu verfügen, um die Einhaltung ihrer Entscheidungen zu gewährleisten“.
Im Zuge des technologischen Wandels hat sich die Kultur der doppelten Verwendung über die traditionellen militärischen Anwendungen und die potenzielle Gefahr einer Überregulierung der Wissenschaft hinaus auf IKT und Neurotechnologien ausgedehnt. Bewaffnete Drohnen sind in laufenden Kriegen weit verbreitet, ebenso wie der Einsatz von Mobiltelefonen als Auslöser, die Nutzung sozialer Medien zur Mobilisierung und Verbreitung von Angst und die ständige Überwachung durch den Einsatz praktisch aller IKT-Produkte und -Systeme. Insbesondere die Techniken zur Generierung von Inhalten haben sich zu einer mächtigen Waffe für Desinformation und Fälschungen entwickelt, bei denen man sich nicht mehr auf das verlassen kann, was man sieht oder hört. Diese hybriden Bedrohungen können die öffentliche Ordnung stören, Kommunikationsinfrastrukturen angreifen und demokratische Strukturen schwächen. Im Vergleich zu Atomwaffen ist die Herstellung von biologischen Waffen einfach und kostengünstig, und Informationen darüber, wie sie hergestellt werden können, sind leicht verfügbar. In ähnlicher Weise werden digitale Technologien schnell leichter zu missbrauchen. Dies steht in grossem Gegensatz zur Nuklearwissenschaft, wo Entdeckungen über Waffen und deren unrechtmässige Verwendung in der Regel geheim gehalten wurden. In Anlehnung an die drei allgemeinen Gesetze von Isaac Asimov, die im Bereich der Roboterethik erfunden wurden, sollte die Priorität des Umgangs mit KI-Technologien auf der Voraussetzung beruhen, dass es selbst im Falle eines böswilligen Missbrauchs keine schädlichen Auswirkungen für den Menschen gibt. Eine wirksame Dual-Use-Governance erfordert die Zusammenarbeit zwischen Staaten, dem Privatsektor, internationalen Organisationen und der Zivilgesellschaft.
Cybersecurity-Sicherheitskultur
Der Begriff „Cybersicherheit“ wird in unterschiedlicher Weise verwendet, um auf Bedrohungen für Nationalstaaten und Einzelpersonen aufmerksam zu machen, die von IKT-Innovationen abhängen oder durch sie ermöglicht werden. Die hier so genannte ‚Cybersecurity-Sicherheitskultur‘ hat ihren Ursprung in den USA und wird von dort durch eine Zusammenarbeit zwischen der US-Regierung und US-amerikanischen IKT-Firmen im Silicon Valley geprägt. Sie wird sowohl vom öffentlichen als auch vom privaten Sektor vorangetrieben. Sie stützt sich auf technische Lösungen für „Cyber-Bedrohungen“, die auf Innovationen im IKT-Sektor beruhen und Produkte und Systeme umfassen, die den Schaden verringern, der beispielsweise durch Würmer, Viren, Hacking, Malware und Ransomware entsteht, die sich gegen die Infrastrukturen von Informationssystemen auf nationaler Ebene sowie gegen private Computer richten.
Sie wird, neben anderen Disziplinen und Bereichen, in der IR-Literatur im Teilbereich der Sicherheitsstudien analysiert. Das Narrativ der Cyber-Bedrohung, das von der öffentlichen Kommunikation über die Bedrohung der nationalen Sicherheit durch Produkte und Systeme, die auf digitalen Technologien basieren, geprägt ist, entstand in den USA in der Reagan-Regierung und später im Militär durch das Konzept der Informationskriegsführung und wurde erstmals mit dem Computer Security Act im Jahr 1987 institutionalisiert. Die vom US-Militär finanzierte Innovation als Antwort auf die nationale Bedrohungslage konzentriert sich seit 1991 auf die Entwicklung von Produkten und Systemen wie Überwachungs- und Aufklärungssysteme und Präzisionswaffensysteme mit grosser Reichweite. Die hohen öffentlichen Investitionen in Datenerfassungs- und Waffentechnologien setzen eine lange historische Tradition bei den militärischen und öffentlichen Ausgaben für Innovationen des privaten Sektors fort. Die Privatindustrie, die sich auf diese Produkte spezialisiert hat, ist sehr profitabel geworden. Cavelty sagt, dass „Cyber-Bedrohungen sich eindeutig nicht als ‚echte‘ nationale Sicherheitsbedrohung erwiesen haben“. Sie argumentiert, dass man sich nicht auf die Begriffe „Cyber“ und „Sicherheit“ konzentrieren sollte, sondern vielmehr die Narrative betrachten sollte, die Bedrohungsindikatoren hervorbringen, wer das Wissen wie produziert und wie dies Massnahmen und Politiken prägt.
Neben öffentlichen Investitionen in den privaten Sektor für technologische Innovationen zu militärischen Zwecken, um die im „Bedrohungsnarrativ“ der USA beschriebenen Bedrohungen zu entschärfen, besteht ein grosser Teil der Cybersicherheitskultur im Schutz einzelner Computer vor Verbrechen, die von digitalen Infrastrukturen abhängen und diese angreifen (z.B. Hacking, Malware und Denial of Service sowie Verbrechen, die auch in anderen Bereichen auftreten, wie Finanzbetrug, Phishing, Pharming und Erpressung). KI-Technologien könnten auch die Bedrohung durch Cyberkriminalität durch böswillige Imitationen oder Identitätsdiebstahl durch tiefgreifende Fälschungen erhöhen. Die grösste Herausforderung für den Schutz der Menschenrechte ist unter dem Einfluss der Cybersecurity-Sicherheitskultur schwer zu erreichen, da sowohl die Infrastrukturen als auch die Lösungen zum Schutz der Infrastrukturen, Systeme und ihrer Komponenten vom privaten Sektor abhängen. Lindstrom sagt, dass, obwohl sich die vorherrschende Darstellung der Cybersicherheit auf die Risiken für die nationale Sicherheit auf Makroebene konzentriert, diese nicht notwendigerweise die grössten Risiken sind, da diese auf Mikroebene von Einzelpersonen ausgehen. Menschenrechte und sozialer Schutz werden durch digitale Technologieunternehmen und -produkte gefährdet, wie z.B. im Falle des Arbeitsschutzes. Der globale „Laissez-faire“-Ansatz bei der Regulierung digitaler Innovationen wurde als unzureichend für den Schutz der Menschenrechte kritisiert, wodurch die Zivilgesellschaft in dieser Darstellung an den Rand gedrängt wird. Cavelty, der sich auf die Worte von Coles-Kemp in einem 2002 veröffentlichten Gemeinschaftswerk bezieht, erklärt, dass in der Sicherheitskultur „ein positiver Wandel erforderlich ist, der der Sicherheit der Menschen zugute kommt“. Hier kann die technologische Sicherheitskultur von der Integration des Menschenrechtsfokus der TA und verwandter Bereiche wie KI-Ethik, digitaler Humanismus und verantwortungsvolle Innovation (RI) profitieren.
Technologiebewertung Sicherheitskultur
Da der Schwerpunkt auf der individuellen Sicherheit durch die Stärkung der Zivilgesellschaft und der globalen Zusammenarbeit liegt, kann die dritte technologische Sicherheitskultur als „TA-Sicherheitskultur“ bezeichnet werden. Die vorherrschende Erzählung handelt von den Bedrohungen grundlegender Menschenrechte wie Privatsphäre, Autonomie, Gesundheit und Wohlbefinden, die durch technologische Innovationen in bestimmten Produkten und Systemen hervorgerufen werden. Die TA-Sicherheitskultur wird von Gemeinschaften von TA-Wissenschaftlern und -Praktikern, Wissenschaftlern aus Disziplinen wie KI-Ethik, Philosophie, Soziologie, Wissenschafts- und Technologiestudien (STS) und Wissenschaftskommunikation, dem öffentlichen Sektor und Beamten geschaffen. Zu den Aktivitäten gehören neben der wissenschaftlichen Forschung auch das öffentliche Engagement für Wissenschaft und Technologie, Wissenschaftskommunikation und Politikberatung. Ein wichtiger Schritt zur Formalisierung dieser Kultur in politischen Kreisen war die Einbeziehung von Akademikern, die sich auf die Ethik von KI und TA spezialisiert haben, in Ethikräte wie den Deutschen Ethikrat. Die entstehende soziale Bewegung des digitalen Humanismus umfasst verschiedene Akteure wie Stadtplanung und -verwaltung, Kultureinrichtungen (z.B. Museen), öffentliche Entscheidungsträger, die Privatwirtschaft und Wissenschaftler aus Disziplinen wie Informatik, Philosophie, Ethik, TA, Soziologie, Politikwissenschaft und Wirtschaft. Frühe Arbeiten zum Konzept des digitalen Humanismus werden mit dem Wiener Manifest zum digitalen Humanismus in Verbindung gebracht, einem Dokument, in dem Kernprinzipien für den digitalen Fortschritt im Einklang mit dem Schutz und der Stärkung der grundlegenden Menschenrechte dargelegt werden. Das Ziel dieser Kultur (die u.a. verschiedene wissenschaftliche Gemeinschaften wie KI-Ethik, RI, STS und Techniksoziologie umfasst) ist es, die Menschenrechte im digitalen Bereich zu wahren und nicht nur ihre Verletzung zu kriminalisieren (in Anlehnung an Kaldors Worte in ihrer Beschreibung von menschlicher Sicherheit und humanitärem Raum). Die TA-Kultur kann auf das Office of Technology Assessment und die Methode der ethischen, rechtlichen und sozialen Aspekte der Technologiebewertung zurückgeführt werden, und in jüngerer Zeit auf die Gemeinschaften der digitalen Rechte, der RI, der KI-Ethik und der STS, die Überlegungen über die Gefährdung der Menschenrechte, der Ethik und der sozialen Institutionen bei der Einführung und Nutzung von KI-gestützten Produkten anstellen.
Die TA-Sicherheitskultur hängt von der Unterstützung durch die Regierung und der öffentlichen Finanzierung von Forschungsprojekten, sozialen Bewegungen, Bildungseinrichtungen, benannten Organisationen und Forschungsinstituten sowie dem privaten Sektor ab, um einen ethischen und menschenrechtsorientierten Ansatz für Innovationen aufrechtzuerhalten. Die Bedrohung dieser Kultur sind Menschenrechtsverletzungen auf der Mikro-, Meso- und Makroebene. Die Risiken auf der Mikroebene stehen im Zusammenhang mit Sicherheitsfragen bei Deep Learning-Technologien und der Datenverarbeitung. Zu dieser Kategorie gehören Vorurteile gegenüber behinderten Menschen, die Verletzung der Privatsphäre und der Rechte an geistigem Eigentum während der Ausbildung sowie Risiken durch den Einsatz von LLMs, ohne zu verstehen, wie diese digitale Inhalte erzeugen. Darüber hinaus spielen Bedrohungen im Hinblick auf illegale kriminelle Aktivitäten wie die Erstellung von nicht-einvernehmlicher Pornographie oder der Missbrauch von böswilligen Nachahmungen eine wichtige Rolle. Neben einzelnen Personen können auch Firmen und Organisationen ins Visier genommen werden. Die dritte Risikokategorie fasst gesellschaftliche und systemische Bedrohungen auf der Makroebene zusammen, z.B. politische Sicherheitsprobleme, die durch generative KI aufgrund ihres hohen Potenzials für Desinformation und Manipulation der öffentlichen Meinung entstehen. KI-Technologien könnten für Propaganda, Wahlmanipulationen oder zum Schüren von sozialen Unruhen, politischer Polarisierung oder Radikalisierung mit dem Ziel, die Demokratie zu untergraben, missbraucht werden. Schliesslich warnen einige Experten vor einer aufkommenden erweiterten menschlichen Intelligenz oder Superintelligenz, die von Menschen nicht kontrolliert werden könnte und eine existenzielle Gefahr für die Menschheit darstellen könnte.
Die TA-Sicherheitskultur hat noch keine starke Unterstützung durch nationale Regierungen oder die Privatwirtschaft. Ihre Hauptbefürworter sind die akademische Welt, zivilgesellschaftlich ausgerichtete Forschungseinrichtungen, Menschenrechtsorganisationen und Teile des öffentlichen Sektors. Mit dem Inkrafttreten des EU-KI-Gesetzes im Jahr 2026 ist zu erwarten, dass sich Unternehmen produktiver mit Standards wie dem Value-Based Engineering auseinandersetzen und ethische Belange in ihre Innovationsprozesse integrieren werden. Die begrenzte Unterstützung durch grosse Firmenoligopole ist jedoch eine kritische Schwachstelle. Nichtsdestotrotz gibt es Anklänge an diese Kultur in den Mitarbeiterbewegungen einiger dieser grossen Unternehmen (z.B. Google), und dies kann zunehmen, wenn Werkzeuge entwickelt und Firmenökosysteme in Richtung des Schutzes der Menschenrechte angesichts der rasanten KI-Fortschritte gestaltet werden.
Schlussfolgerung: Navigieren im Spannungsfeld von Sicherheitskulturen, Menschenrechten und KI
Bei der Analyse der komplexen Überschneidungen zwischen Sicherheitskulturen, Menschenrechten und Künstlicher Intelligenz (KI) hat unser Papier kritische Probleme bei der Einordnung digitaler Technologien als Bedrohung grundlegender Menschenrechte identifiziert, ähnlich wie bei nuklearen, biologischen und chemischen Technologien, und daher als relevantes und „neues“ Sicherheitsproblem. Mit der raschen Verbreitung von KI-gestützten Produkten und Systemen wird deutlich, dass der Schutz der Menschenrechte einen auf die menschliche Sicherheit ausgerichteten Ansatz für technologische Innovationen erfordert.
Unsere Untersuchung zeigt drei Kulturen der Technologiesicherheit: Dual Use, Cybersicherheit und TA. Jede Kultur spiegelt eine einzigartige Reihe von Normen, Praktiken und Akteuren wider, die die Steuerung von KI-gestützter digitaler Technologie beeinflussen. Die Dual-Use-Kultur, die ihre Wurzeln in der Dynamik des Kalten Krieges hat, betont die internationale Zusammenarbeit zur Regulierung von Hochrisikotechnologien. Im Gegensatz dazu setzt die von den USA eingeführte Kultur der Cybersicherheit auf technische Lösungen und das Engagement des Privatsektors, um digitalen Bedrohungen zu begegnen. Die TA-Kultur, die aus akademischen und ethischen Bereichen stammt, stellt die Menschenrechte in den Vordergrund der technologischen Entwicklung.
Jede Sicherheitskultur wird von ihrer eigenen Bedrohungserzählung begleitet. Die Kultur des doppelten Verwendungszwecks ist mit der komplexen Aufgabe konfrontiert, Technologien mit doppeltem Verwendungszweck zu regeln und ihre böswillige Verwendung vor allem auf der Makroebene zu verhindern. Die Cybersecurity-Kultur setzt sich mit der doppelten Rolle privater Einrichtungen auseinander, die sowohl Einzelpersonen als auch Unternehmen schützen und potenziell gefährden können. Die TA-Kultur konzentriert sich auf den Schutz von Rechten auf verschiedenen Ebenen, steht aber vor der Herausforderung, die Unterstützung von Regierungen und grossen Unternehmen zu gewinnen. Um die Gefährdung der Menschenrechte durch die rasche Datafizierung und Verbreitung von IKT und KI-gestützten Produkten und Systemen umzukehren, müssen politische Entscheidungsträger, Branchenführer und die Zivilgesellschaft zusammenarbeiten, um die Lücke eines auf den Menschen ausgerichteten Ansatzes in den beiden vorherrschenden Kulturen der Technologiesicherheit zu schliessen. Die Regierungen müssen strukturelle Probleme angehen, die zu Menschenrechtsverletzungen beitragen, und die Unternehmen müssen ethische Überlegungen so weit wie möglich in ihre KI-Innovationsprozesse einbeziehen. Globale Kooperationsmechanismen, ähnlich denen, die für den doppelten Verwendungszweck nuklearer, chemischer und biologischer Technologien eingerichtet wurden, müssen für digitale Technologien ausgehandelt und umgesetzt werden, wie Bostrom sagt, „um die Weltpolitik in ein harmonischeres Register zu bringen“. Die Zivilgesellschaft spielt eine zentrale Rolle bei der Gestaltung der Technologiepolitik. Initiativen, die die Stimmen von Interessengruppen, Ethikern und Menschenrechtsorganisationen verstärken, müssen gestärkt werden, um ein Gegengewicht zum Einfluss der mächtigen Oligopole zu bilden. Die Inklusion in der KI-Entwicklung, die unterschiedliche Perspektiven von Randgruppen einbezieht, muss gefördert werden, um algorithmische Verzerrungen zu minimieren und die Anpassungsfähigkeit von KI an unterschiedliche kulturelle Kontexte zu verbessern. Die in diesem Papier vorgestellte strategische Analyse unterstreicht die zentrale Bedeutung der menschlichen Sicherheit und die Wichtigkeit der Stärkung der TA-Sicherheitskultur. Sie konzentriert sich auf soziale, ökologische und ethische Ziele und bietet einen Weg, um die Herausforderungen der KI zu bewältigen und die positiven und nützlichen Aspekte der KI-Innovation zu unterstützen, ohne die grundlegenden Menschenrechte zu gefährden.
Zur einfacheren Lesbarkeit wurden die Literatur- und Quellverweise entfernt.
Tanja Sinozic-Martinez, Jutta Jahnel in: TATuP 33/2; „TA for human security: Aligning security cultures with human security in AI innovation“
https://creativecommons.org/licenses/by/4.0
https://doi.org/10.14512/tatup.33.2.16
Übersetzung Boris Wanzeck, Swiss Infosec AG