Newsletter Anmeldung

Bleiben Sie mit dem Newsletter immer up to date.

Anfrage
arrow-to-top

Cybersecurity – Globale Zusammenstösse im Zeitalter der KI

03/2025

1. Einführung

Die neue technologische Revolution, die durch den Einsatz von künstlicher Intelligenz (KI) eingeleitet wurde, wirkt sich auf verschiedene Bereiche wie das Baugewerbe, den Dienstleistungssektor, den Einzelhandel, das Gesundheitswesen usw. und auf die unterschiedlichsten Situationen unseres täglichen Lebens aus, z. B. auf die Interaktion mit Bots in Online-Shops, die Personalisierung der Benutzernavigation, die Verwendung von Tools zur Überarbeitung von Texten oder die Bearbeitung und Erstellung von Bildern und Videos.

Jede technologische Entwicklung bringt zwar eine Reihe von Vorteilen mit sich, eröffnet aber auch neue Fronten für ausgeklügelte, gross angelegte Cyberangriffe. Aufgrund der Besorgnis der Regierungen über den ethischen Einsatz von KI und die Auswirkungen auf das Leben des Einzelnen gewinnt der Wettlauf um die Regulierung und den ethischen Einsatz der Technologie in verschiedenen Ländern an Bedeutung. Ziel ist es, Richtlinien für die Entwicklung, Anwendung und Transparenz für die Nutzer aufzustellen, die nicht immer über die notwendige digitale Bildung verfügen, um die Technologie zu nutzen oder sich der Auswirkungen bewusst zu sein, die sie auf ihr Leben haben kann.

Im April 2021 schlug die Europäische Kommission die erste EU-Regulierungsinitiative für KI vor, die besagt, dass KI-Systeme, die in verschiedenen Anwendungen eingesetzt werden können, je nach dem Risiko, das sie für die Nutzer darstellen, analysiert und klassifiziert werden sollen. Am 9. Dezember 2023 erzielte das Parlament eine vorläufige Einigung mit dem Rat über das KI-Gesetz. Der vereinbarte Text muss nun formell vom Parlament und vom Rat angenommen werden, um EU-Recht zu werden.

In Brasilien ist das Gesetzesprojekt Nr. 2338 aus dem Jahr 2023 noch im Nationalkongress anhängig. Es wird die Nutzung künstlicher Intelligenz regeln und soll in der ersten Hälfte des Jahres 2024 verabschiedet werden.

Tatsache ist, dass neben der Regulierung auch Massnahmen zur Sensibilisierung, Aufklärung und Digitalisierung der Nutzer im Umgang mit den neuen technologischen Werkzeugen gefördert und umgesetzt werden müssen. Das naive Verhalten von Nutzern angesichts von Situationen, die ihnen vorgaukeln, dass sie der Realität entsprechen, die aber nichts anderes sind als ein Versuch, Betrug mit Hilfe von künstlicher Intelligenz, wie z.B. Deepfakes, anzuwenden, trägt dazu bei, dass Betrügereien verübt werden.

Social-Engineering-Betrügereien wie Phishing haben eine neue Dimension erreicht: Mit generativer KI versuchen Kriminelle nicht nur, das Opfer auszutricksen, sondern verwandeln es auch virtuell in einen raffinierten Betrüger, indem sie seine Stimme simulieren oder Deepfakes anwenden. Diese Deepfakes können genutzt werden, um Verbrechen zu begehen, Fehlinformationen zu verbreiten oder politische Propaganda zu unterstützen, da es einige Zeit dauern kann, bis sie entdeckt werden.

Im Februar verlor ein multinationales Unternehmen in Hongkong 25 Millionen US-Dollar, nachdem Betrüger einen gefälschten Videoanruf inszeniert hatten. Der Angestellte wurde getäuscht, nachdem er digital nachgebildete Versionen des Finanzchefs des Unternehmens und anderer Personen in einem Videoanruf gesehen hatte. Aber es geht nicht nur um Geld. Die Technologie kann auch psychologische Schäden bei Einzelpersonen verursachen, wie im Fall der mehr als 30 Mädchen der Westfield High School in New Jersey, die Opfer von Deepfake-Pornografie wurden.

So nützlich die Technologie sein kann, weil sie den Alltag ihrer Nutzer mit innovativen und nützlichen Ressourcen erleichtert, so schädlich kann sie sein, wenn sie von Kriminellen genutzt wird, um ihren Opfern zu schaden. Andererseits ist Ubiquitäres Computing, auch Pervasive Computing genannt, ein Konzept aus der Softwaretechnik und Informatik, bei dem die Datenverarbeitung jederzeit und überall verfügbar ist. Mit dem Aufkommen von 5G rücken intelligente Städte immer näher an die Realität heran. Ein Beispiel für Pervasive Computing ist das Internet der Dinge (Internet of Things, IoT), eine Infrastruktur aus miteinander verbundenen Einheiten, Systemen und Informationsressourcen sowie Diensten, die Informationen aus der physischen und virtuellen Welt verarbeiten und auf sie reagieren.

In diesem Fall kann KI dabei helfen, die von vernetzten Systemen empfangenen Daten zu analysieren, um Entscheidungen zu treffen, die das Ziel des Systems erreichen und die Nutzung und Navigation für den Benutzer flüssiger und nützlicher machen. Denken Sie daran, dass die Cybersicherheit, wie wir sie kennen, für die Zukunft und die neu entstehenden Technologien möglicherweise nicht ausreicht, sondern dass die Strafverfolgung und das Bewusstsein aller Beteiligten diskutiert werden müssen. Darüber hinaus wird die Diskussion über Ethik in der Technologie für die Entwicklung von KI-Systemen unerlässlich sein.

Die Herausforderungen bei der Nutzung von künstlicher Intelligenz und der Anwendung von Sicherheitsmassnahmen zur Minderung von Risiken in einer hypervernetzten Welt sind zahlreich. In diesem Kapitel werden wir Aspekte der Cybersicherheit und KI sowie die Herausforderungen und Chancen der Cybersicherheit in der Industrie 5.0 analysieren.

2. Cybersecurity und KI

Je schneller wir fahren, desto mehr machen Sicherheitsdetails den Unterschied aus. In der Welt der Formel 1 können kleine Details in Sekundenschnelle Leben retten oder vernichten – erst recht, wenn Sie mit einer Geschwindigkeit von 300 km/h unterwegs sind. Die digitale Gesellschaft hat alles beschleunigt. Wir führen eine Menge aus. Die Frage ist: Mit welchem Mass an Sicherheit tun wir das?

In vielen Branchen ist die Sicherheitskultur zu einem integralen Bestandteil ihres Wesens geworden, sie wurde sogar schon bei der Konstruktion berücksichtigt, d.h. sie kommt aus der Fabrik. Aber das war nicht immer so. In den Anfängen der Autoindustrie konnte ein einfacher Fahrzeugaufprall zu einer Explosion des Motors führen und den Fahrer und die Insassen töten. Jetzt durchlaufen wir den gleichen Zyklus der Reife und des natürlichen Lernens der Softwareindustrie, der Plattformen, der Strukturen und der Hauptakteure, die das Internetumfeld von den 90er Jahren bis heute lebensfähig gemacht haben. Daher ist es nach fast 35 Jahren nur natürlich, dass Sicherheitsanforderungen für Fabriken notwendig sind und dass es eine endgültige Verantwortung für die Sicherheit ihrer Benutzer gibt, so wie es bei allen anderen Industrien der Fall ist, die ein fortgeschrittenes Stadium mit massiver Nutzung und grossen sozialen und wirtschaftlichen Auswirkungen erreichen.

Die Cybersicherheit ist die Anwendung von Sicherheitsmassnahmen durch Organisationen, um ihre Systeme, Menschen und Informationen vor Angriffen zu schützen, die die Geschäftsziele beeinträchtigen und die Kontinuität der Aktivitäten verhindern könnten, wobei die Vertraulichkeit, Integrität und Verfügbarkeit von Informationen gewahrt wird. Im Zusammenhang mit KI profitiert die Cybersicherheit von der Verwendung von Algorithmen, die die Suche nach Schwachstellen erleichtern und weiterentwickeln und diese beheben. Die Information Systems Audit and Control Association (ISACA) hat Cybersecurity-Trends für 2024 veröffentlicht.

Der Trend Nummer eins ist „Der Aufstieg der KI in der Cybersicherheit“. Die Forscher berichten, dass KI hilft, grosse Datenmengen zu analysieren, um Bedrohungen zu erkennen, die von Menschen oft unbemerkt bleiben. Mit KI können sich wiederholende Aufgaben automatisiert und analysiert werden, um Ergebnisse vorauszusehen und proaktiv statt reaktiv vorzugehen. Der Einsatz von KI in der Cybersicherheit birgt jedoch auch Risiken, wie z.B. die Ausnutzung von Systemen durch böswillige Agenten, so dass Mitarbeiter für den sicheren Einsatz von KI-Technologie geschult werden müssen. Das National Cyber Security Centre (NCSC) beschreibt KI als „jedes Computersystem, das Aufgaben ausführen kann, die normalerweise menschliche Intelligenz erfordern. Dazu können visuelle Wahrnehmung, Texterstellung, Spracherkennung oder die Übersetzung zwischen Sprachen gehören“.

Die technologische Revolution im Bereich der KI eröffnet auch neue Möglichkeiten für den Ausbau der Cybersicherheit, denn sie profitiert vom Einsatz intelligenter Algorithmen, die die Suche nach Schwachstellen und die Überwachung von Bedrohungen erleichtern. Aber das ist noch nicht alles. Die KI hat sich auch auf die Art und Weise ausgewirkt, wie Technologien entworfen und entwickelt werden.

Aber nicht nur Unternehmen profitieren von dieser Technologie. Cyberkriminelle setzen neue KI-Technologien ein, um die Anwendung von Betrügereien auszuweiten. So nutzen sie KI, um die Kosten für die Generierung von Malware zu senken, was es Angreifern ermöglicht, das Volumen von Angriffen schnell, billig und mit weniger Geschick zu erhöhen.

Andererseits tragen KI-Systeme aufgrund ihrer grossen Kapazität zur Datenanalyse dazu bei, die Zeit zwischen der Veröffentlichung von Sicherheitsupdates zur Behebung von Schwachstellen zu verkürzen, wodurch es für Bedrohungsakteure schwieriger wird, veraltete Software auszunutzen. Mit dem Einsatz von maschinellem Lernen (ML), einem Prozess, bei dem Computertechniken eingesetzt werden, um Systeme in die Lage zu versetzen, aus Daten oder Erfahrungen zu lernen, werden Systeme mit künstlicher Intelligenz so entwickelt, dass der Algorithmus automatisch Muster findet und die Ergebnisse mit minimaler menschlicher Aufsicht erzeugt. Trotzdem ist das Tool nicht frei von Bedrohungen, denn der Angreifer könnte eine Eingabe erstellen, die das Modell zu einem unbeabsichtigten Verhalten veranlasst. Dies wird als Prompt Injection bezeichnet, die anstössige Inhalte generieren, sensible oder nicht sensible Informationen preisgeben oder unbeabsichtigte Ausgaben hervorrufen kann, wenn das System ungeprüfte Eingaben akzeptiert. Ein weiterer Angriff, der KI-Systemen schaden kann, ist der Data-Poisoning-Angriff. Dieser Angriff erfolgt, wenn ein Angreifer die Daten verändert, die das KI-System trainiert hat, um unbeabsichtigte Ergebnisse zu erzielen (Sicherheit oder Verzerrung).

Darüber hinaus können sich Modelle, die Deep Learning verwenden, auf eine Art und Weise verhalten, die schwer zu verstehen ist, wenn man sich den Algorithmus ansieht, mit dem sie trainiert wurden, was zu Unsicherheiten hinsichtlich der Ziele sowie der Sicherheit, Fairness und Robustheit führen kann. Mangelnde Transparenz über das KI-System gegenüber den Stakeholdern kann ebenfalls zu einer Bedrohung für Organisationen werden, da dies das Vertrauen in das System negativ beeinflussen und zu einer Rechenschaftspflicht der Organisation und des KI-Systems führen kann.

Erklärbarkeit ist die Eigenschaft eines KI-Systems, über Faktoren zu informieren, die die Entscheidungsfindung beeinflussen. Sie muss so ausgedrückt werden, dass die Empfänger sie verstehen können, ohne jedoch Geschäftsgeheimnisse, Vertraulichkeit oder Sicherheitsanforderungen preiszugeben. Daher ist es von entscheidender Bedeutung, dass die Entwickler während des Entwicklungszyklus von KI-Systemen die Risiken und Bedrohungsmodelle verstehen, um die notwendigen Sicherheitskontrollen anzuwenden und die Risiken auf ein akzeptables Niveau zu reduzieren.

Zu all dem ist es notwendig, dass die Gesellschaft Cybersicherheit fordert, dass der Gesetzgeber eine gesetzliche Verpflichtung einführt, dass der Inspektor überwacht und dass die öffentliche Meinung und die Presse ihre Rolle der sozialen Überwachung erfüllen, um eine nachhaltige Wirtschaft zu schaffen.

3. Digitale Ethik und nachhaltige Wirtschaft

Die Smart Industry, d.h. die KI-Industrie, stellt den Technologiesektor vor Herausforderungen und Chancen, denn die Implementierung der neuen Systeme erfordert Investitionen in Hardware, Software und die Schulung von Mitarbeitern für die Bedienung der neuen technologischen Ressourcen. Aber wir dürfen die ethischen Grundsätze nicht aufgeben.

Mit der zunehmenden Integration von KI in unser Leben entsteht die Notwendigkeit zu analysieren, wie Transparenz, Sicherheit und ethisches Verhalten bei der Nutzung von KI aussehen werden. Dazu gehören Themen wie algorithmische Voreingenommenheit, Diskriminierung, Gerechtigkeit und die moralische Verantwortung von Entscheidungen, die von KI-Systemen getroffen werden. Darüber hinaus bedeutet das, dass man festlegen muss, ob eine KI immer die Wahrheit sagen muss oder ob sie sich beispielsweise an das Gesetz halten muss. Es scheint einfach, aber es ist sehr schwierig, die Standards für eine Maschine zu definieren, wenn sie nicht im Code programmiert ist oder den Algorithmus trainiert hat.

Aus diesem Grund sollten Unternehmen interne Ethikgremien für Algorithmen einrichten, die sicherstellen, dass das KI-System ordnungsgemäss funktioniert, indem sie überwachtes maschinelles Lernen gewährleisten, um die Risiken für das Unternehmen zu minimieren. Um die Risiken bei der Nutzung und Entwicklung von KI-Systemen zu mindern, ist es jedoch notwendig, eine solide Governance mit robusten Standards und Aufzeichnungen zu etablieren, um die Nachvollziehbarkeit der vom Algorithmus getroffenen Entscheidungen zu ermöglichen, was sich neben dem technischen Wissen auch auf die von den Fachleuten der Zukunft benötigten Fähigkeiten auswirkt.

Die Entwicklung und Einführung von künstlicher Intelligenz (KI) wird sich auf den Bedarf an Fähigkeiten und Kompetenzen auswirken, da sie die Zusammensetzung der Aufgaben und die Verteilung der Berufe verändern wird. Dies wird sich daher auch auf die Arbeitsplätze und die beruflichen Fähigkeiten auswirken, die Unternehmen bei der Einstellung von Mitarbeitern erwarten. Daher müssen Regierungen und private Einrichtungen eine Schlüsselrolle bei der Förderung einer besseren Ausbildung seitens der Arbeitgeber spielen und einen gemeinsamen Ansatz zur Entwicklung von Fähigkeiten für die Nutzung und den Umgang mit KI in allen Lebensabschnitten, von der Grundausbildung an, sicherstellen und die Vielfalt und Entwicklung der KI-Nutzung fördern.

Andererseits ist es notwendig, die ethische Nutzung und Entwicklung von KI-Systemen zu betonen, damit keine kognitiv-behaviorale Manipulation von gefährdeten Menschen oder Gruppen stattfindet. Die ungewollte Voreingenommenheit des Algorithmus kann den Nutzern schaden, sei es durch eine falsche Entscheidung, die Verletzung von Rechten an geistigem Eigentum oder durch Diskriminierung. Eine im Februar 2024 von der International Association of Professional Privacy veröffentlichte Studie über Consumer Perspectives on Privacy and Artificial Intelligence (Verbraucherperspektiven zum Thema Datenschutz und künstliche Intelligenz) hat gezeigt, dass die Schlussfolgerungen zum Grad des Vertrauens, das Verbraucher in Unternehmen setzen, die KI-Technologien verwenden, nicht eindeutig sind. Es gibt Verbraucher, die von den Vorteilen begeistert sind, die KI bieten kann, aber gleichzeitig sind andere Verbraucher besorgt über die Risiken, die KI im Allgemeinen darstellen kann, sowie über die Risiken für die Privatsphäre.

Aus diesem Grund sind Warnungen, dass der Inhalt oder das Tool von KI generiert wurde, unerlässlich und bewahren die Schritte, die zum Trainieren des Algorithmus verwendet wurden, im Rahmen der Ethikkommission für Algorithmen. Im Whitepaper der International Association of Privacy Professionals wird betont, dass die Datenethik an jedem Punkt des Lebenszyklus der Daten (Entwicklung, Speicherung, Datenerfassung, Analyse usw.) bewertet werden sollte. Zu diesem Zweck sollten alle Mitarbeiter eine Grundausbildung in Datenethik erhalten.

Die Phasen des Lebenszyklus von KI-Systemen sollten also unter anderem Folgendes umfassen:

  • Design, Daten und Modelle.
  • Verifizierung und Validierung.
  • Einsetzen.
  • Betrieb und Überwachung.

Die Rechenschaftspflicht ist eine grundlegende Aufgabe bei der Gewährleistung der Compliance von KI-Systemen. Die Commission Nationale Informatique & Libertés (CNIL) veröffentlichte 2017 den Bericht über die ethischen Fragen von Algorithmen und künstlicher Intelligenz. Der Bericht stellt fest, dass neben der Rechenschaftspflicht und der Transparenz auch die Erklärbarkeit des Algorithmus ein wichtiger Aspekt ist. Erklärbarkeit ist die Fähigkeit, die allgemeine Logik der Funktionsweise eines Algorithmus zu verstehen, die in Worten und nicht in Codezeilen erklärt wird.

Nachhaltige KI-Innovationen erfordern eine wirksame Überwachung, um Risiken zu kontrollieren:

  • Anwendbarkeit: Algorithmen, Daten und Modelle müssen transparent sein, um ihren Verwendungszweck zu gewährleisten.
  • Ethischer Prüfungsausschuss: um die Übereinstimmung mit der Kultur und den Werten der Organisation sicherzustellen.
  • Managementprozesse: Erfüllen Sie die Anforderungen an Qualität, Sicherheit, Datenschutz und Compliance.
  • Technische Kontrollen: Umsetzung von Massnahmen zur Risikominderung durch Sicherheitskonzepte.
  • Bildung und Ausbildung: Die Beteiligten sollten geschult werden, um die notwendigen Fähigkeiten zu entwickeln.

Darüber hinaus ist die ethische Folgenabschätzung (EIA) ein nützliches Instrument, wenn es um die Entwicklung von KI-Systemen geht. Laut UNESCO bietet die ethische Folgenabschätzung einen Rahmen, um sicherzustellen, dass KI-Entwicklungen mit der Förderung und dem Schutz der Menschenrechte und der Menschenwürde, der ökologischen Nachhaltigkeit, der Gerechtigkeit, der Inklusion und der Gleichstellung der Geschlechter in Einklang stehen.

Die algorithmische Folgenabschätzung (AIA) ist ein weiteres Instrument, das den Entwicklern helfen kann, den Grad der Auswirkungen eines automatisierten Entscheidungssystems zu bestimmen, einschliesslich des Systemdesigns, des Algorithmus, der Entscheidungsart, der Auswirkungen und der Daten. Die ethische Nutzung von KI muss eine Voraussetzung für die Anwendung der Technologie sein, um die Risiken für die Nutzer zu mindern. Aus diesem Grund sollten Organisationen in ihren Strukturen eine KI-Governance einführen, mit dem Ziel, spezifische Aktivitäten zu entwickeln, um Sprachmodelle, die vom System gelieferten Ergebnisse und die Art und Weise der Entscheidungsfindung zu bewerten. Der Einsatz von KI-Systemen bringt daher einige Herausforderungen mit sich, von der Governance von KI in Unternehmen bis hin zu den Fähigkeiten, die für die Entwicklung, Schulung und den Betrieb der Ressourcen, die uns die Technologie zur Verfügung stellt, erforderlich sind.

4. Chancen und Herausforderungen der Cybersicherheit in der Industrie 5.0

Die technischen, menschlichen und kulturellen Herausforderungen für die Cybersicherheit erfordern Investitionen und einen risikobasierten Ansatz mit dem Ziel, Systemschwachstellen zu beheben, Bedrohungen zu beseitigen und die freie Entfaltung des Einzelnen zu bewahren, während er auf den Umgang mit neuen Technologien vorbereitet wird.

Industrie 5.0 stellt den Technologiesektor vor Herausforderungen und Chancen, denn die Implementierung der neuen Systeme erfordert Investitionen in Hardware, Software und die Schulung der Mitarbeiter für die Bedienung der neuen technologischen Ressourcen. In einer Welt, in der Mensch und Maschine immer näher zusammenrücken und Tools zur Verhaltensanalyse und Aktivitätsverfolgung eingesetzt werden, besteht die Herausforderung darin, die Privatsphäre und die Sicherheit der Daten des Einzelnen zu wahren. Es stimmt, dass die technologische Entwicklung viel schneller voranschreitet, als die Gesellschaft im Allgemeinen mithalten kann, und neue Möglichkeiten und Bedrohungen schafft. Der mangelnde Zugang zu neuen Technologien, sei es aufgrund der hohen Kosten für ihre Einführung, des mangelnden Interesses der Menschen oder der schnellen Veralterung, wirkt sich auf den Lernprozess und die kulturelle Entwicklung der Gesellschaft in Bezug auf die Informationssicherheit aus.

In letzter Zeit ist es üblich, dass die Menschen einen neuen digitalen Betrug nur durch die Nachrichten erkennen, wenn jemand bereits Opfer von Cyberkriminellen geworden ist, und nicht unbedingt durch die Fähigkeit zu erkennen, dass die Situation schädlich sein könnte. Die Kombination aus immer raffinierteren Betrügereien und mangelndem Bewusstsein für Informationssicherheit und Aufklärung ist ein gefundenes Fressen für böswillige Akteure, die die Gelegenheit sehen, Schwachstellen auszunutzen, um sich finanzielle Vorteile zu verschaffen, Zugangsdaten zu erlangen oder die Identität zu stehlen. Ausserdem bieten IoT-Geräte in einer hypervernetzten Gesellschaft ihren Nutzern viele Vorteile. Die Automatisierung von Aufgaben und das maschinelle Lernen von Geräten machen das Leben der Menschen einfacher. Die ständige Überwachung des Benutzers führt jedoch dazu, dass seine Handlungen verfolgt werden, was zu Risiken führt. In IoT-Geräten interagiert die Anwendungsschicht mit der gemeinsamen Dienstebene über eine Anwendungsprogrammierschnittstelle (API), die es zwei Softwarekomponenten ermöglicht, über eine Reihe von Definitionen und Protokollen zu kommunizieren.

Aber wie jede Technologie birgt auch die Integration von APIs Risiken, denn sie ermöglichen den Verlust von Informationen, eine geringere Verfügbarkeit von Dienstleistungen oder Produkten und das Hacken von Systemen. Das Open Worldwide Application Security Project (OWASP) hat die 10 grössten API-Sicherheitsrisiken veröffentlicht, darunter:

  • Fehlerhafte Authentifizierung: Falsch implementierte Authentifizierungsmechanismen ermöglichen es Angreifern, die Identität anderer Benutzer anzunehmen oder Authentifizierungs-Tokens zu kompromittieren.
  • Uneingeschränkter Ressourcenverbrauch: Um die API zu nutzen, muss der Client über einen Internetzugang und ein elektronisches Gerät (z. B. einen Computer) verfügen. Erfolgreiche Angriffe können zu Denial-of-Service oder erhöhten Betriebskosten führen.
  • Serverseitige Anforderungsfälschung: Sie kann auftreten, wenn eine API nach einer entfernten Ressource sucht, ohne die vom Benutzer angegebene URL zu validieren. Dadurch kann der Angreifer die Anwendung zu einem unerwarteten Verhalten veranlassen und die Informationen an ein anderes Ziel weiterleiten.
  • Falsche Sicherheitskonfiguration: Wenn Sie sich nicht an die Sicherheitseinstellungen und bewährten Verfahren der API halten, können Sie zum Ziel verschiedener Angriffe werden.
  • Unsichere Nutzung von APIs: Angreifer versuchen, integrierte Dienste von Drittanbietern mit weniger Sicherheitsvorkehrungen anzugreifen, anstatt die Ziel-API direkt anzugreifen.

Diese Risiken liegen jenseits aller Vorsichtsmassnahmen, die Nutzer zum Schutz ihrer Privatsphäre ergreifen können, da sie den Anbieter des Produkts oder der Dienstleistung direkt betreffen und durch die ständige Einbindung das gesamte Netzwerk zusammenbrechen lassen können. Zusätzlich zu den empfohlenen Sicherheitspraktiken ist es von höchster Wichtigkeit, dass bei der Risikoanalyse der Anwendung sichere Protokolle für die Übertragung von Informationen in Betracht gezogen werden, um Daten während des Fluges zu schützen, genau wie Transport Layer Security (TLS). Für IoT-Anwendungen ist gegenseitiges TLS eine gängige Anforderung. Darüber hinaus sind zum Schutz von Daten im Ruhezustand Massnahmen wie die Verschlüsselung auf Anwendungsebene, mit der Daten Datei für Datei verschlüsselt werden können, oder die Anwendung der Verschlüsselung auf Geräteebene, mit der die Dateien auf dem Speichergerät verschlüsselt werden, erforderlich.

Die International Data Corporation (IDC) schätzt, dass es bis 2025 55,7 Milliarden vernetzte IoT-Geräte geben wird, die fast 80B Zettabytes (ZB) an Daten erzeugen. Die grosse Anzahl intelligenter Geräte, die das IoT ausmachen, die verschiedenen Sensoren, die eine grosse Menge an Daten und Informationen sammeln, wie z.B. Standort, Automatisierungseinstellungen oder Gesundheitsinformationen der Nutzer, erzeugen also Big Data.

Big Data ist ein umfangreicher Datensatz mit Merkmalen wie Volumen, Vielfalt, Geschwindigkeit und Variabilität, die spezielle Technologien und Techniken zur Verarbeitung und Wertschöpfung erfordern, wie z.B. Hadoop. Und wenn wir schon von Big Data sprechen: Die Analyse grosser Datenmengen ermöglicht es, Informationen über Benutzermuster zu erhalten, um Profile zu definieren und Informationen zu schützen. In diesem Fall kommt das Konzept der homomorphen Verschlüsselung zum Tragen, denn das Protokoll ermöglicht der Industrie die Arbeit mit verschlüsselten Daten für beliebige Ziele.

Verschlüsselung kann eingesetzt werden, um die Privatsphäre der Nutzer zu schützen. IBM hat in seiner Sicherheits-Roadmap veröffentlicht, dass bis 2027 zum Schutz von Unternehmen vor Datenschutzverletzungen und gegnerischer KI Technologien wie die vollständig homomorphe Verschlüsselung (FHE) und robuste KI weit verbreitet sein werden. Auf diese Weise wird die vollständig homomorphe Verschlüsselung die Analyse und den Schutz der Privatsphäre von Daten ermöglichen, die immer verschlüsselt sind, auch wenn sie verwendet werden. Unter Berücksichtigung des Schutzes der Privatsphäre und des Datenschutzes müssen die verarbeiteten personenbezogenen Daten einen bestimmten Zweck haben und auf das zur Erreichung dieses Zwecks erforderliche Minimum beschränkt sein. Dies schränkt die wahllose Erhebung und Verwendung personenbezogener Daten zu Testzwecken ein, da für die Verarbeitung personenbezogener Daten eine Rechtsgrundlage erforderlich ist.

Die Notwendigkeit, Daten zum Trainieren von KI-Systemen zu verwenden, kann das Risiko mit sich bringen, dass persönliche oder vertrauliche Informationen an unbefugte Dritte weitergegeben werden. Um die Risiken der Verwendung echter Daten zu mindern, ist es ratsam, synthetische Daten zu erzeugen. Synthetische Daten sind Informationen, die mit Hilfe von Algorithmen künstlich erzeugt werden, was folgende Vorteile hat: (a) anpassbar, d.h. es ist möglich, synthetische Daten zu erstellen, um bestimmte Anforderungen zu erfüllen; (b) schnellere Produktion, grosse Mengen an künstlichen Daten können in kurzer Zeit zur Verfügung gestellt werden; (c) Wahrung des Datenschutzes: synthetische Daten ähneln nur den realen Daten, enthalten aber keine nachvollziehbaren Informationen über die realen Daten.

In Anbetracht der Tatsache, dass viele KI-Tools trainiert sind oder menschliche Verhaltensweisen und Eigenschaften simulieren und sogar menschliche Gefühle erkennen können, kann dies den Benutzer verwirren, der der KI menschliche Gefühle und Eigenschaften zuschreibt. Dies wird als Anthropomorphismus bezeichnet. Eine Benutzererfahrung wie ein menschliches Gespräch mit einem Chatbot kann dazu führen, dass Personen unangemessen persönliche Informationen preisgeben oder von KI-generierten Ausgaben getäuscht werden, die zu einer falschen oder irrtümlichen Schlussfolgerung führen. Die Vermenschlichung der KI ist eine Herausforderung, der wir uns stellen müssen, denn wäre es ethisch vertretbar, wenn eine KI sagen würde, dass sie krank geworden ist? Dass sie im Fitnessstudio ist und trainiert? Dass sie eine Reise nach Paris unternommen hat? Daher muss sich die KI als künstliche Intelligenz, als Roboter und nicht als Mensch präsentieren. Daher muss die Anthropomorphisierung von KI-Systemen von den Programmierern als Risiko gesehen werden, wenn die Benutzer nicht erkennen können, dass sie es mit einem generativen Algorithmus zu tun haben, und es müssen Gegenmassnahmen ergriffen werden, um das Risiko zu mindern, dass die Benutzer Menschen und Maschinen verwechseln.

5. Schlussfolgerungen

Angesichts der technologischen Revolution, die durch die KI ausgelöst wurde und die sich auf verschiedene Bereiche und Sektoren des gesellschaftlichen Lebens auswirkt, müssen wir uns für die neuen Trends und Anwendungen der Technologie in unserem täglichen Leben neu erfinden. Gleichzeitig mit der Realisierung zahlreicher Vorteile werden auch Bedrohungen und Betrügereien mit Hilfe der Technologie vorangetrieben, was die Raffinesse der Aktionen auf ein neues Niveau hebt.

Die Initiative einiger Länder, den Einsatz künstlicher Intelligenz zu regulieren, ist insofern legitim, als unklar ist, welche realen Auswirkungen, ob positiv oder negativ, der Einsatz neuer aufstrebender Technologien haben könnte. Auf der anderen Seite erleichtern IoT-Geräte und ihre vernetzte Infrastruktur, die zur Interaktion und zum Eintauchen in die reale und virtuelle Welt genutzt werden, den Nutzern das Leben und sammeln eine grosse Menge an Daten, die zur Verbesserung der Benutzerfreundlichkeit und zur Erstellung von Nutzungsprofilen verarbeitet werden.

Cybersecurity kann im Zusammenhang mit KI profitieren, indem Algorithmen eingesetzt werden, um eine grosse Menge an Informationen zu analysieren und unbekannte Bedrohungen und Schwachstellen zu finden, die Analyse zu automatisieren und den Ansatz proaktiv zu gestalten, indem die Ergebnisse vorweggenommen werden. Cyberkriminelle profitieren auch von der Technologie, indem sie sich Algorithmen zunutze machen, um das Volumen der Angriffe zu erhöhen und Angriffe mit Deepfakes zu verfeinern. Darüber hinaus können sie spezielle Angriffe nutzen, um Algorithmen auszuhebeln oder zu verfälschen, wie z.B. den Data Poisoning Angriff und Prompt Injection, was für Unternehmen ein Alarmsignal ist. Ausserdem kann die Verwendung von APIs zur Integration von IoT-Systemen und -Geräten ausgenutzt werden, was zu Datenverlusten, Systemangriffen oder sogar zur Nichtverfügbarkeit von Diensten führen kann.

Die Anwendung von sicheren Übertragungsprotokollen wie TLS, die zwar auch ihre Schwachstellen haben, können zum Schutz von Daten während der Übertragung verwendet werden. Darüber hinaus ist es wichtig, über Massnahmen nachzudenken, die die Sicherheit der Daten im Ruhezustand gewährleisten, z. B. Verschlüsselung auf Anwendungsebene oder Verschlüsselung auf Geräteebene. Andere Methoden zur Gewährleistung der Vertraulichkeit sind ebenfalls auf dem Vormarsch, um die Privatsphäre der Menschen zu schützen und ihre persönlichen Daten zu sichern, wie z.B. die homomorphe Verschlüsselung, die es ermöglicht, Daten zu verwenden, die immer verschlüsselt sind.

Auch die Verwendung synthetischer Daten, die die Struktur realer Daten simulieren und keine Identifizierung einer Person zulassen, wird diskutiert, um Maschinentraining durchzuführen, ohne die Daten von Einzelpersonen zu verwenden und so deren Privatsphäre und den Schutz persönlicher Daten zu gewährleisten. Weitere Vorsichtsmassnahmen betreffen die Entwicklung von KI-Anwendungen und -Systemen, die auf der Grundlage von Ethik, der Achtung der Grundrechte des Einzelnen und der Privatsphäre erstellt werden müssen.

Die Besorgnis über KI-Systeme, die menschliches Verhalten und menschliche Eigenschaften simulieren, ist ebenfalls eine Herausforderung für den ethischen Einsatz von Technologie. Ethische Folgenabschätzungen sind von entscheidender Bedeutung, da KI immer stärker in unser Leben integriert wird. Algorithmische Voreingenommenheit, Diskriminierung und Verletzungen der Privatsphäre stellen Unternehmen vor grosse Herausforderungen, auf die sie mit Algorithmus-Ethik- und KI-Governance-Ausschüssen vorbereitet sein müssen. Darüber hinaus sind Rechenschaftspflicht, Transparenz und Erklärbarkeit einige der Grundsätze, die während des gesamten KI-Lebenszyklus zu beachten sind.

Die ethische, technische und rechtliche Nutzung von KI ist von grundlegender Bedeutung, um die Risiken für die Nutzer zu minimieren. Zu diesem Zweck ist die Zusammenarbeit von Regierungen, privaten Unternehmen und Einzelpersonen unerlässlich, um sicherzustellen, dass KI-Fortschritte der Gesellschaft zugute kommen und gleichzeitig die Ethik und die Rechte und die Privatsphäre des Einzelnen gewahrt bleiben.

Zur einfacheren Lesbarkeit wurden die Literatur- und Quellverweise entfernt.

Patrícia Peck und Lucas Arthuso in: The Role of Cybersecurity in the Industry 5.0 Era

IntechOpen, London, 2024

DOI: https://doi.org/10.5772/intechopen.114974

http://creativecommons.org/licenses/by/3.0

Übersetzung Boris Wanzeck, Swiss Infosec AG


© Swiss Infosec AG 2026