KI-Sicherheit

Technischer Überblick über das KI-System

Überblick

Dieser Artikel bietet technische Transparenz darüber, wie die KI-Systeme von ISMS Copilot entwickelt, getestet und betrieben werden. Diese Details belegen unser Engagement für eine verantwortungsvolle KI-Entwicklung durch nachprüfbare Implementierungspraktiken.

Zielgruppe

Dieser Artikel richtet sich an:

  • Sicherheits- und Compliance-Teams, die KI-Governance-Kontrollen bewerten

  • Auditoren, die die Implementierung von KI-Systemen anhand von Richtlinien beurteilen

  • Risikomanager, die technische Transparenz für KI-Systeme benötigen

  • Technische Anwender, die die KI-Architektur verstehen möchten

ISO 42001 Implementierung

Das KI-System von ISMS Copilot wird in Übereinstimmung mit den Anforderungen der ISO 42001:2023 (Managementsystem für Künstliche Intelligenz) entwickelt und betrieben. Unsere technische Implementierung orientiert sich an spezifischen ISO 42001-Kontrollen:

Architekturausrichtung:

  • A.4.2 (Kontexterstellung): System zur dynamischen Wissensinjektion von Frameworks, dokumentiert im AI System Design Document (AI-SDD-001)

  • A.5 (Folgenabschätzung): Umfassendes AI Impact Assessment (Einstufung als 1.9 Niedriges Risiko, EU AI Act Begrenztes Risiko)

  • A.6 (Verantwortungsbewusste Entwicklung): Sicherer Entwicklungslebenszyklus mit Regressionstests, SAST/DAST-Scans, Prompt Injection Tests

  • A.7 (Datenmanagement): Zero Data Retention-Vereinbarungen, Workspace-Isolierung, benutzergesteuerte Aufbewahrungsfristen

  • A.8 (Benutzerinteraktion): Transparenzhinweise, Human-in-the-Loop-Design, Verifizierungs-Disclaimers auf der gesamten Plattform

  • A.9 (Verantwortungsvolle Nutzung): Zweckbindung, Jailbreak-Prävention, Leitplanken für den Inhaltsbereich

Siehe Wie ISMS Copilot ISO 42001 implementiert für die vollständige Dokumentation unseres KI-Managementsystems, der Risikobewertungen, Bias-Tests und Leistungsüberwachung.

Dynamische Framework-Wissensinjektions-Architektur

ISMS Copilot nutzt die dynamische Wissensinjektion von Frameworks, um KI-Antworten auf verifiziertem Compliance-Wissen zu basieren. Ab Version 2.5 (Februar 2025) ersetzt dies die bisherige RAG-Architektur (Retrieval-Augmented Generation) durch einen zuverlässigeren und Token-effizienteren Ansatz.

Funktionsweise der Framework-Wissensinjektion

Architektur-Komponenten:

  • Framework-Erkennungsschicht: Regex-basierter Musterabgleich erkennt Framework-Erwähnungen in Benutzeranfragen (ISO 27001, SOC 2, DSGVO, HIPAA, CCPA, NIS 2, DORA, ISO 42001, ISO 27701)

  • Wissensinjektionsschicht: Lädt dynamisch nur relevantes Framework-Wissen basierend auf den erkannten Frameworks in den KI-Kontext

  • Generierungsschicht: Large Language Models (LLMs) von Enterprise-KI-Anbietern erhalten Framework-Wissen, bevor sie Antworten generieren

  • Validierungsmechanismus: Das der KI zur Verfügung gestellt Framework-Wissen stellt sicher, dass Antworten auf tatsächlichen Compliance-Anforderungen basieren und nicht auf probabilistischem Raten

Die dynamische Wissensinjektion von Frameworks eliminiert Halluzinationen, indem sie der KI tatsächliches Framework-Wissen zur Verfügung stellt, bevor sie antwortet. Die Erkennung erfolgt vor der KI-Verarbeitung (nicht KI-basiert), was eine 100%ige Zuverlässigkeit gewährleistet, wenn Frameworks erwähnt werden.

Warum dynamische Injektion für Compliance wichtig ist:

  • Eliminiert Halluzinationen: Die KI erhält verifiziertes Framework-Wissen vor der Beantwortung, was erfundene Kontrollnummern und Anforderungen verhindert

  • Token-Effizienz: Nur relevante Frameworks werden geladen (~1-2K Token) im Gegensatz zum Senden des gesamten Wissens (~10K Token) bei jeder Anfrage

  • Zuverlässige Erkennung: Regex-Musterabgleich (nicht KI-basiert) stellt sicher, dass Framework-Erwähnungen niemals übersehen werden

  • Erweiterbare Architektur: Neue Frameworks werden mit einer einzigen Objektdefinition hinzugefügt, kein erneutes Modelltraining erforderlich

  • Multi-Framework-Unterstützung: Verarbeitet Abfragen, die mehrere Frameworks gleichzeitig erwähnen (z. B. \"ISO 27001 auf SOC 2 mappen\")

Technische Implementierung

Erkennungsprozess:

  1. Benutzer sendet Anfrage (z. B. \"Was ist ISO 27001 Annex A.5.9?\")

  2. Framework-Erkennung scannt Anfrage nach Musterübereinstimmungen (ISO 27001, DSGVO, SOC 2 usw.)

  3. Übereinstimmende Frameworks lösen Wissensinjektion aus

  4. Relevantes Framework-Wissen wird vor der Generierung zum KI-System-Prompt hinzugefügt

Unterstützte Frameworks (v2.5):

  • ISO 27001:2022 — Informationssicherheits-Managementsystem

  • ISO 42001:2023 — Managementsystem für Künstliche Intelligenz

  • ISO 27701:2025 — Datenschutz-Managementsystem

  • SOC 2 — Service Organization Control (Trust Services Criteria)

  • HIPAA — Health Insurance Portability and Accountability Act

  • GDPR / DSGVO — Datenschutz-Grundverordnung

  • CCPA — California Consumer Privacy Act

  • NIS 2 — Network and Information Systems Directive

  • DORA — Digital Operational Resilience Act

Weitere Frameworks werden kontinuierlich hinzugefügt. Nächste Prioritäten sind NIST 800-53, PCI DSS und zusätzliche regionale Regulierungen. Prüfen Sie den Produkt-Changelog für Updates.

Evolution von RAG zur Dynamischen Injektion

Bisheriger Ansatz (vor v2.5): RAG-Architektur

  • Semantische Suche rief relevante Dokumentationsausschnitte ab

  • Qualität des Abrufs variierte je nach Formulierung der Anfrage

  • Alle ~10K Token an Wissen wurden bei vielen Anfragen gesendet

  • Primär auf ISO 27001 fokussiert

Aktueller Ansatz (v2.5+): Dynamische Framework-Injektion

  • Regex-basierte Erkennung gewährleistet zuverlässige Framework-Identifikation

  • Nur relevante Frameworks geladen (Token-effizient)

  • Unterstützt 9 Frameworks gleichzeitig

  • Erweiterbares Design für schnelle Framework-Ergänzungen

Wenn Sie in älterer Dokumentation oder externen Quellen Hinweise auf eine "RAG-Architektur" finden, beachten Sie bitte, dass ISMS Copilot in Version 2.5 (Februar 2025) auf die dynamische Framework-Wissensinjektion umgestellt hat. Der neue Ansatz ist zuverlässiger und unterstützt wesentlich mehr Frameworks.

KI-Anbieter & Datenschutz

Wir nutzen KI-Anbieter der Enterprise-Klasse mit strengen Datenschutzvereinbarungen.

Aktuelle Anbieter

Backend-KI-Modelle:

  • OpenAI GPT-5.2 (Standard) — Fortgeschrittene Logik und Compliance-Analyse

  • Anthropic Claude Opus — Backend-Integration für nuancierte Richtlinienentwürfe

  • xAI Grok — Alternativer Anbieter für diverse Anwendungsfälle

  • Mistral AI — In der EU ansässiger Anbieter für den erweiterten Datenschutzmodus

OpenAI GPT-5.2 ist der aktuelle Standardanbieter für alle Konversationen. Zusätzliche KI-Anbieter sind im Backend integriert, eine Benutzeroberfläche zur Modellauswahl ist für 2026 geplant. Alle Modelle greifen über die dynamische Framework-Injektion auf dieselbe spezialisierte Compliance-Wissensdatenbank zu, was eine konsistente und zuverlässige Beratung gewährleistet.

Zero Data Retention-Vereinbarungen

Alle KI-Anbieter arbeiten unter Zero Data Retention (ZDR) Vereinbarungen:

Ihre Daten werden NIEMALS zum Trainieren von KI-Modellen verwendet. ZDR-Vereinbarungen stellen sicher, dass Ihre Konversationen, hochgeladenen Dokumente und Workspace-Inhalte vertraulich bleiben und von den KI-Anbietern nicht über die Bearbeitung Ihrer Anfragen hinaus aufbewahrt werden.

Bedingungen der ZDR-Vereinbarung:

  • Keine Speicherung von Benutzerdaten über die Anfragebearbeitung hinaus

  • Kein Modelltraining mit Kundeninhalten

  • DSGVO-konforme Datentransfers mit Standardvertragsklauseln (SCCs)

  • Durchsetzung von Enterprise-Sicherheitsstandards

Detaillierte Informationen zu Auftragsverarbeitern und Datenflüssen finden Sie in unserem Verzeichnis der Verarbeitungstätigkeiten.

Entwicklungsanforderungen

Jede Komponente des KI-Systems wird gegen dokumentierte Anforderungen entwickelt, die das erwartete Verhalten, Sicherheitsbeschränkungen und Leistungsschwellenwerte definieren.

Funktionale Anforderungen

Scope-Definition:

  • Die KI bietet Unterstützung bei der Einhaltung von Vorschriften, keine Rechtsberatung

  • Aufgabengrenzen: Erstellung von Richtlinien, Gap-Analyse, Audit-Vorbereitung, Überprüfung von Dokumenten

  • Erzwingung von Einschränkungen: kein Internetzugang, keine Code-Ausführung, keine Verarbeitung personenbezogener Daten über die Plattformnutzung hinaus

Leistungsanforderungen

Qualitätsziele:

  • Antwortgenauigkeit basierend auf abgerufenen Quellen mit Quellenangabe

  • Kontextfenster ausreichend für Compliance-Analysen über mehrere Dokumente hinweg

  • Antwortzeit optimiert für interaktive Nutzung (Ziel: unter 10 Sekunden)

  • Rate-Limits pro Benutzerebene definiert, um die Systemstabilität zu gewährleisten

Sicherheitsanforderungen

Vermeidung von Halluzinationen:

  • Quellenbindung: Antworten müssen sich auf abgerufene Dokumentationen beziehen

  • Abrufvalidierung: Antworten werden gegen den Quellinhalt geprüft

  • Konfidenzbewertung: Unsicherheit wird eingestanden, wenn Quellen mehrdeutig sind

  • Haftungsausschluss zur Benutzerverifizierung: Alle Ausgaben erfordern eine menschliche Überprüfung

Inhaltsfilterung:

  • Erkennung und Blockierung unangemessener Inhalte

  • Bereichsgrenzen: Die KI lehnt Anfragen außerhalb des Bereichs ab (z. B. nicht verwandte Themen, medizinische/rechtliche Beratung)

  • Schutz vor Jailbreak und Prompt Injection

Siehe Überblick über KI-Sicherheit & verantwortungsvolle Nutzung für detaillierte Sicherheitsleitplanken.

Anforderungen an die Datenverarbeitung

Privacy by Design:

  • Keine Benutzerdaten für das Modelltraining (ZDR-Vereinbarungen durchgesetzt)

  • Datenminimierung: nur notwendige Daten werden für Abruf und Generierung verarbeitet

  • Temporäre Verarbeitung: keine langfristige Speicherung von Prompts/Antworten über die Session-Logs hinaus

  • Aufbewahrungskontrollen: vom Benutzer konfigurierbare Datenaufbewahrungsfristen (1 Tag bis 7 Jahre oder dauerhafte Speicherung)

  • Transferkontrollen: DSGVO-konforme Datentransfers mit SCCs

Umfassende Praktiken zur Datenverarbeitung finden Sie in unserer Datenschutzerklärung.

Verifizierungs- & Validierungstests

KI-Systeme werden vor dem Rollout strengen Tests unterzogen. Kein System geht live, ohne die anforderungsbasierte Validierung bestanden zu haben.

Regressionstests

Automatisierte Tests laufen bei jeder Codeänderung, um sicherzustellen, dass bestehende Funktionen intakt bleiben.

Testabdeckung:

  • Abrufgenauigkeit: Präzision und Recall gegen Ground-Truth-Datensätze

  • Antwort-Fundierung: Überprüfung, ob Ausgaben die abgerufenen Quellen zitieren

  • Halluzinationserkennung: Abgleich mit bekannten fehlerhaften Antworten

  • Leistungsbenchmarks: Validierung von Antwortzeit und Kontextverarbeitung

Sicherheitstests

KI-Systeme durchlaufen dieselbe Sicherheitsvalidierung wie alle Plattformkomponenten.

Testing-Pipeline:

  • SAST (Static Application Security Testing): Schwachstellenscan auf Code-Ebene mit Semgrep-Integration

  • DAST (Dynamic Application Security Testing): Sicherheitsvalidierung zur Laufzeit

  • Penetrationstests: Jährliche Sicherheitsbewertungen durch Dritte

  • Prompt Injection Testing: Validierung gegen gegnerische Eingaben, die versuchen, Sicherheitsbeschränkungen zu umgehen

Unser sicherer Entwicklungslebenszyklus stellt sicher, dass KI-Systeme die gleichen Sicherheitsstandards erfüllen wie alle anderen Plattformkomponenten. Siehe unsere Sicherheitsrichtlinien für detaillierte Testpraktiken.

UAT (User Acceptance Testing)

Die Validierung realer Szenarien mit Compliance-Experten stellt sicher:

  • Ausgaben entsprechen professionellen Qualitätsstandards

  • Antworten sind für Compliance-Anwendungsfälle angemessen

  • Einschränkungen werden klar kommuniziert

  • Feedback-Mechanismen sind zugänglich und effektiv

Checkliste für die Deployment-Validierung

KI-Systeme werden erst bereitgestellt, wenn sie die dokumentierten Anforderungen erfüllen:

Das Deployment erfordert 100 % Erfolg bei Regressionstests, abgeschlossene Sicherheitsscans (keine kritischen oder hocheinstufigen Schwachstellen), erfüllte Leistungsbenchmarks, aktualisierte Benutzerdokumentation inklusive Einschränkungen sowie konfiguriertes Monitoring/Alerting zur Verfolgung der Halluzinationsrate.

Bereitstellungen, die die Validierung nicht bestehen, werden zurückgerollt, bis die Anforderungen erfüllt sind.

Überwachung & kontinuierliche Verbesserung

Nach dem Deployment überwachen wir das Verhalten des KI-Systems, um Verschlechterungen, neu auftretende Probleme oder Missbrauch zu erkennen.

Monitoring-Metriken

Was wir tracken:

  • Halluzinationsrate: Verfolgt durch Benutzerberichte und automatisierte Erkennung

  • Antwortgenauigkeit: Stichprobenartige Validierung gegen Ground-Truth-Compliance-Standards

  • Nutzungsmuster: Erkennung von nutzungsfremder oder unangemessener Verwendung

  • Leistungsmetriken: Antwortzeit, Abrufpräzision, Fehlerraten

  • Benutzerfeedback: Berichte über negative Auswirkungen, Support-Tickets, Feature-Anfragen

Kontinuierlicher Verbesserungszyklus

Überwachungsdaten fließen in iterative Verbesserungen ein:

Feedback-Schleifen:

  • Benutzerfeedback und Berichte über negative Auswirkungen → Modell-Updates und Abruf-Tuning

  • Ergebnisse von Sicherheitstests → Sicherheitsverbesserungen und Kontroll-Updates

  • Regulatorische Änderungen und Best Practices → Dokumentations- und Framework-Updates

  • Leistungsüberwachung → Genauigkeitsverbesserungen und Antwortoptimierung

Incident Response

Wir benachrichtigen Benutzer über KI-bezogene Vorfälle, um Transparenz und Vertrauen zu wahren.

Benachrichtigungskanäle:

  • E-Mail-Benachrichtigungen bei kritischen Vorfällen, die die KI-Funktionalität beeinträchtigen

  • Slack-Benachrichtigungen für abonnierte Teams

  • Statusseite Updates mit Zeitplänen für Vorfälle und deren Behebung

  • NIS2-konforme Frühwarnmeldungen (24-Stunden-Meldung bei erheblichen Cybersicherheitsvorfällen)

Abonnieren Sie unsere Statusseite, um Echtzeit-Benachrichtigungen über Vorfälle, Wartungsarbeiten und Updates des KI-Systems zu erhalten.

Bekannte Einschränkungen

KI-Systeme haben inhärente Einschränkungen, die Benutzer verstehen müssen, um sie verantwortungsvoll zu nutzen.

Technische Einschränkungen

KI-Ausgaben können trotz RAG-Fundierung Ungenauigkeiten (Halluzinationen) enthalten. Benutzer müssen alle Ausgaben mit offiziellen Standards und Vorschriften abgleichen.

Aktuelle Einschränkungen:

  • Probabilistische Natur: KI generiert Antworten basierend auf statistischen Mustern, nicht auf deterministischer Logik

  • Kein Internetzugang: Die KI kann keine Echtzeitinformationen abrufen oder auf externe Websites zugreifen

  • Keine Code-Ausführung: Die KI kann keine Berechnungen durchführen, Skripte ausführen oder technische Implementierungen validieren

  • Wissensstand: Das Wissen des KI-Modells ist auf das Datum des Trainingsdatenschlusses begrenzt (variiert je nach Anbieter)

  • Kontextlimits: Das maximale Kontextfenster begrenzt die Informationsmenge, die in einer einzigen Anfrage verarbeitet werden kann

  • Domänengrenzen: Die KI ist auf Compliance/Sicherheit trainiert; die Leistung in anderen Domänen ist nicht garantiert

Detaillierte Einschränkungen und Workarounds finden Sie auf unserer Seite für Bekannte Probleme.

Verantwortung des Benutzers zur Verifizierung

ISMS Copilot ist so konzipiert, dass es professionelles Urteilsvermögen unterstützt, nicht ersetzt:

  • Gleichen Sie KI-Vorschläge mit offiziellen Standards ab

  • Validieren Sie kritische Informationen vor der Einreichung an Auditoren

  • Nutzen Sie die KI als Assistenten eines Beraters, nicht als Ersatz für Fachwissen

  • Wenden Sie professionelles Urteilsvermögen bei der Umsetzung von KI-Empfehlungen an

Siehe Wie man ISMS Copilot verantwortungsvoll nutzt für Best Practices zur Verifizierung.

Meldung & Feedback

Benutzerfeedback ist entscheidend für die Verbesserung des KI-Systems. Wir bieten mehrere Mechanismen zur Meldung von Problemen, Ungenauigkeiten oder unerwartetem Verhalten.

So melden Sie Probleme

Negative Auswirkungen oder Halluzinationen:

  1. Navigieren Sie zum Benutzermenü (oben rechts) > Hilfe-Center > Support kontaktieren

  2. Fügen Sie Prompt, Antwort und Screenshots in Ihren Bericht ein

  3. Erwarten Sie eine Antwort innerhalb von 48 Stunden

In-Platform Reporting:

  • Nutzen Sie die Schaltfläche "Problem melden", die auf der gesamten Plattform verfügbar ist, um spezifische KI-Antworten zu markieren

Was nach Ihrer Meldung passiert

  1. Sofortige Überprüfung (innerhalb von 48 Stunden): Das Support-Team bewertet Schweregrad und Auswirkungen

  2. Untersuchung: Das technische Team analysiert das Problem, reproduziert es und identifiziert die Grundursache

  3. Rückmeldung: Sie erhalten ein Update zu den Ergebnissen und geplanten Maßnahmen

  4. Behebung: Probleme werden durch Modell-Updates, Abruf-Tuning, Code-Fixes oder Dokumentationsverbesserungen behoben

  5. Kontinuierliche Verbesserung: Gewonnene Erkenntnisse werden in Test- und Überwachungsprozesse integriert

Probleme mit hohem Schweregrad (Sicherheitsrisiken, Datenlecks, kritische Halluzinationen) werden sofort für eine dringende Behebung eskaliert.

Detaillierte Anweisungen zur Meldung finden Sie im Überblick über KI-Sicherheit & verantwortungsvolle Nutzung.

Aktualisierungen der Dokumentation

Technische Spezifikationen werden aktualisiert, wenn:

  • KI-Anbieter sich ändern (neue Modelle, veraltete APIs)

  • Die Architektur sich weiterentwickelt (neue Komponenten, Validierungsmethoden)

  • Anforderungen revidiert werden (neue Sicherheitsbeschränkungen, Leistungsziele)

  • Testpraktiken erweitert werden (neue Validierungstechniken, Sicherheitswerkzeuge)

Aktualisierungen werden über Release Notes und diese Dokumentationsseite kommuniziert. Abonnieren Sie unsere Statusseite für Änderungsbenachrichtigungen.

Nächste Schritte

Hilfe anfordern

Für technische Fragen zu KI-Systemspezifikationen oder zur Anforderung zusätzlicher Dokumentation:

  • Kontaktieren Sie den Support über das Hilfe-Center-Menü

  • Melden Sie Sicherheitsbedenken sofort zur Untersuchung

  • Besuchen Sie das Trust Center für detaillierte Informationen zur KI-Governance

  • Prüfen Sie die Statusseite für bekannte Probleme

War das hilfreich?