KI-Sicherheit

Technischer Überblick über das KI-System

Überblick

Dieser Artikel bietet technische Transparenz darüber, wie die KI-Systeme von ISMS Copilot entwickelt, getestet und betrieben werden. Diese Details belegen unser Engagement für eine verantwortungsvolle KI-Entwicklung durch verifizierbare Implementierungspraktiken.

Zielgruppe

Dieser Artikel richtet sich an:

  • Security- und Compliance-Teams, die KI-Governance-Controls bewerten

  • Auditoren, die die Implementierung von KI-Systemen gegen Richtlinien prüfen

  • Risikomanager, die technische Transparenz für KI-Systeme benötigen

  • Technische Anwender, die die KI-Architektur verstehen möchten

Dynamic Framework Knowledge Architektur

ISMS Copilot nutzt eine dynamische Framework-Wissensinjektion (Dynamic Framework Knowledge Injection), um KI-Antworten auf verifiziertem Compliance-Wissen zu begründen. Ab Version 2.5 (Februar 2025) ersetzt dies die bisherige RAG-Architektur (Retrieval-Augmented Generation) durch einen zuverlässigeren und Token-effizienteren Ansatz.

Wie die Framework-Wissensinjektion funktioniert

Architektur-Komponenten:

  • Framework-Erkennungsschicht: Regex-basiertes Pattern Matching erkennt Framework-Erwähnungen in Benutzeranfragen (ISO 27001, SOC 2, GDPR, HIPAA, CCPA, NIS 2, DORA, ISO 42001, ISO 27701)

  • Wissensinjektionsschicht: Lädt dynamisch nur das relevante Framework-Wissen in den KI-Kontext, basierend auf den erkannten Frameworks

  • Generierungsschicht: Large Language Models (LLMs) von Enterprise-KI-Anbietern erhalten Framework-Wissen, bevor sie Antworten generieren

  • Validierungsmechanismus: Das der KI bereitgestellte Framework-Wissen stellt sicher, dass Antworten auf tatsächlichen Compliance-Anforderungen basieren und nicht auf probabilistischem Raten

Die dynamische Framework-Wissensinjektion eliminiert Halluzinationen, indem sie der KI tatsächliches Framework-Wissen zur Verfügung stellt, bevor sie antwortet. Die Erkennung findet vor der KI-Verarbeitung statt (nicht KI-basiert), was eine 100%ige Zuverlässigkeit gewährleistet, wenn Frameworks erwähnt werden.

Warum dynamische Injektion für Compliance wichtig ist:

  • Eliminiert Halluzinationen: Die KI erhält verifiziertes Framework-Wissen vor der Beantwortung, was die Erfindung von Kontrollnummern und Anforderungen verhindert

  • Token-Effizienz: Nur relevante Frameworks werden geladen (~1-2K Token) im Vergleich zum Senden des gesamten Wissens (~10K Token) bei jeder Anfrage

  • Zuverlässige Erkennung: Regex-Pattern-Matching (nicht KI-basiert) stellt sicher, dass Framework-Erwähnungen niemals übersehen werden

  • Erweiterbare Architektur: Neue Frameworks werden mit einer einzigen Objektdefinition hinzugefügt, ohne dass ein Modell-Retraining erforderlich ist

  • Multi-Framework-Unterstützung: Verarbeitet Anfragen, die mehrere Frameworks gleichzeitig erwähnen (z. B. „ISO 27001 auf SOC 2 mappen“)

Technische Implementierung

Erkennungsprozess:

  1. Benutzer reicht Anfrage ein (z. B. „Was ist ISO 27001 Annex A.5.9?“)

  2. Die Framework-Erkennung scannt die Anfrage nach Pattern-Matches (ISO 27001, DSGVO, SOC 2 usw.)

  3. Übereinstimmende Frameworks lösen die Wissensinjektion aus

  4. Relevantes Framework-Wissen wird dem Prompt des KI-Systems vor der Generierung hinzugefügt

Unterstützte Frameworks (v2.5):

  • ISO 27001:2022 — Informationssicherheits-Managementsystem

  • ISO 42001:2023 — Künstliche Intelligenz Managementsystem

  • ISO 27701:2025 — Datenschutz-Informationsmanagement

  • SOC 2 — Service Organization Control (Trust Services Criteria)

  • HIPAA — Health Insurance Portability and Accountability Act

  • GDPR (DSGVO) — Datenschutz-Grundverordnung

  • CCPA — California Consumer Privacy Act

  • NIS 2 — Netzwerk- und Informationssicherheits-Richtlinie

  • DORA — Digital Operational Resilience Act

Weitere Frameworks werden kontinuierlich hinzugefügt. Die nächsten Prioritäten sind NIST 800-53, PCI DSS und zusätzliche regionale Vorschriften. Informationen zu Updates finden Sie im Produkt-Changelog.

Evolution von RAG zu Dynamic Injection

Bisheriger Ansatz (vor v2.5): RAG-Architektur

  • Semantische Suche rief relevante Snippets aus der Dokumentation ab

  • Die Qualität des Abrufs variierte je nach Formulierung der Anfrage

  • Alle ~10K Token des Wissens wurden bei vielen Anfragen gesendet

  • Hauptfokus auf ISO 27001

Aktueller Ansatz (v2.5+): Dynamic Framework Injection

  • Regex-basierte Erkennung gewährleistet zuverlässige Framework-Identifikation

  • Nur relevante Frameworks werden geladen (Token-effizient)

  • Unterstützt 9 Frameworks gleichzeitig

  • Erweiterbares Design für schnelle Framework-Ergänzungen

Sollten Sie in älteren Dokumenten oder externen Quellen Hinweise auf eine „RAG-Architektur“ sehen, beachten Sie bitte, dass ISMS Copilot in Version 2.5 (Februar 2025) auf die dynamische Framework-Wissensinjektion umgestellt wurde. Der neue Ansatz ist zuverlässiger und unterstützt wesentlich mehr Frameworks.

KI-Anbieter & Datenschutz

Wir nutzen KI-Anbieter der Enterprise-Klasse mit strengen Datenschutzvereinbarungen.

Aktuelle Anbieter

Backend-KI-Modelle:

  • OpenAI GPT-5.2 (Standard) — Fortgeschrittene Logik und Compliance-Analyse

  • Anthropic Claude Opus — Backend-Integration für detaillierte Richtlinienentwürfe

  • xAI Grok — Alternativer Anbieter für verschiedene Anwendungsfälle

  • Mistral AI — EU-basierter Anbieter für den erweiterten Datenschutz-Modus

OpenAI GPT-5.2 ist der derzeitige Standardanbieter für alle Konversationen. Zusätzliche KI-Anbieter sind im Backend integriert; eine Benutzeroberfläche zur Modellauswahl ist für 2026 geplant. Alle Modelle greifen über die dynamische Framework-Injektion auf dieselbe spezialisierte Compliance-Wissensbasis zu, was eine konsistente und zuverlässige Anleitung gewährleistet.

Null-Datenspeicherungs-Vereinbarungen (Zero Data Retention)

Alle KI-Anbieter arbeiten unter Zero Data Retention (ZDR) Vereinbarungen:

Ihre Daten werden NIEMALS zum Trainieren von KI-Modellen verwendet. ZDR-Vereinbarungen stellen sicher, dass Ihre Konversationen, hochgeladenen Dokumente und Workspace-Inhalte vertraulich bleiben und von den KI-Anbietern über die Bearbeitung Ihrer Anfragen hinaus nicht gespeichert werden.

ZDR-Vereinbarungsbedingungen:

  • Keine Speicherung von Benutzerdaten über die Anfragebearbeitung hinaus

  • Kein Modelltraining mit Kundeninhalten

  • DSGVO-konforme Datentransfers mit Standardvertragsklauseln (SCCs)

  • Durchsetzung von Sicherheitsstandards auf Enterprise-Niveau

Detaillierte Informationen zu Auftragsverarbeitern und Datenflüssen finden Sie in unserem Verzeichnis von Verarbeitungstätigkeiten.

Entwicklungsanforderungen

Jede Komponente des KI-Systems wird gegen dokumentierte Anforderungen entwickelt, die das erwartete Verhalten, Sicherheitsbeschränkungen und Leistungsschwellenwerte definieren.

Funktionale Anforderungen

Definition des Umfangs:

  • KI bietet Unterstützung bei der Compliance, keine Rechtsberatung

  • Aufgabengrenzen: Richtlinienerstellung, Gap-Analyse, Audit-Vorbereitung, Dokumentenprüfung

  • Erzwingung von Einschränkungen: kein Internetzugang, keine Code-Ausführung, keine Verarbeitung personenbezogener Daten über die Plattformnutzung hinaus

Leistungsanforderungen

Qualitätsziele:

  • Die Genauigkeit der Antworten basiert auf abgerufenen Quellen mit Quellenangabe

  • Kontextfenster ausreichend für die Compliance-Analyse mehrerer Dokumente

  • Antwortzeit optimiert für interaktive Nutzung (Ziel: unter 10 Sekunden)

  • Rate-Limits pro Benutzerstufe definiert, um die Systemstabilität zu gewährleisten

Sicherheitsanforderungen

Minderung von Halluzinationen:

  • Quellenbasierung: Antworten müssen sich auf abgerufene Dokumentation beziehen

  • Validierung des Abrufs: Antworten werden gegen den Quellinhalt geprüft

  • Vertrauenswertung: Unsicherheit wird eingestanden, wenn Quellen zweideutig sind

  • Haftungsausschluss für Benutzerverifizierung: Alle Ausgaben erfordern eine menschliche Überprüfung

Inhaltsfilterung:

  • Erkennung und Blockierung unangemessener Inhalte

  • Umfangsgrenzen: Die KI lehnt Anfragen außerhalb des Zuständigkeitsbereichs ab (z. B. themenfremde Themen, medizinische/rechtliche Beratung)

  • Schutz vor Jailbreaks und Prompt Injection

Siehe Überblick über KI-Sicherheit & verantwortungsvolle Nutzung für detaillierte Sicherheitsmaßnahmen.

Anforderungen an die Datenverarbeitung

Privacy by Design:

  • Keine Nutzung von Benutzerdaten für Modelltraining (ZDR-Vereinbarungen erzwungen)

  • Datenminimierung: Nur notwendige Daten werden für Abruf und Generierung verarbeitet

  • Temporäre Verarbeitung: Keine langfristige Speicherung von Prompts/Antworten über Sitzungsprotokolle hinaus

  • Aufbewahrungskontrollen: Vom Benutzer konfigurierbare Datenaufbewahrungsfristen (1 Tag bis 7 Jahre oder dauerhaft)

  • Transferkontrollen: DSGVO-konforme Datentransfers mit SCCs

Vollständige Informationen zu unseren Datenverarbeitungspraktiken finden Sie in unserer Datenschutzerklärung.

Verifizierung & Validierungstests

KI-Systeme werden vor dem Deployment strengen Tests unterzogen. Kein System geht live, ohne eine anforderungsbasierte Validierung bestanden zu haben.

Regressionstests

Automatisierte Tests laufen bei jeder Codeänderung, um sicherzustellen, dass bestehende Funktionen intakt bleiben.

Testabdeckung:

  • Genauigkeit des Abrufs: Präzision und Recall gegen Ground-Truth-Datensätze

  • Antwortbasierung: Überprüfung, ob Ausgaben die abgerufenen Quellen zitieren

  • Erkennung von Halluzinationen: Abgleich mit bekannten fehlerhaften Antworten

  • Leistungs-Benchmarks: Validierung der Antwortzeit und Kontextverarbeitung

Sicherheitstests

KI-Systeme durchlaufen dieselbe Sicherheitsvalidierung wie alle anderen Plattformkomponenten.

Testing-Pipeline:

  • SAST (Static Application Security Testing): Schwachstellen-Scanning auf Code-Ebene mit Semgrep-Integration

  • DAST (Dynamic Application Security Testing): Sicherheitsvalidierung zur Laufzeit

  • Penetrationstests: Jährliche Sicherheitsbewertungen durch Dritte

  • Prompt Injection Tests: Validierung gegen adversarial Inputs, die versuchen, Sicherheitsvorgaben zu umgehen

Unser sicherer Entwicklungslebenszyklus stellt sicher, dass KI-Systeme dieselben Sicherheitsstandards erfüllen wie alle anderen Plattformkomponenten. Siehe unsere Sicherheitsrichtlinien für detaillierte Testpraktiken.

User Acceptance Testing (UAT)

Die Validierung mit Compliance-Experten anhand realer Szenarien stellt sicher:

  • Die Ergebnisse entsprechen professionellen Qualitätsstandards

  • Die Antworten sind für Compliance-Anwendungsfälle angemessen

  • Einschränkungen werden klar kommuniziert

  • Feedback-Mechanismen sind zugänglich und effektiv

Checkliste für die Deployment-Validierung

KI-Systeme werden erst nach Erfüllung dokumentierter Anforderungen bereitgestellt:

Ein Deployment erfordert 100% Erfolg bei Regressionstests, bestandene Sicherheitsscans (keine kritischen/hohen Schwachstellen), Erfüllung von Leistungs-Benchmarks, aktualisierte Benutzerdokumentation inklusive Einschränkungen sowie konfiguriertes Monitoring/Alerting zur Überwachung der Halluzinationsrate.

Deployments, die die Validierung nicht bestehen, werden zurückgesetzt, bis die Anforderungen erfüllt sind.

Monitoring & Kontinuierliche Verbesserung

Nach dem Deployment überwachen wir das Verhalten des KI-Systems, um Verschlechterungen, aufkommende Probleme oder Missbrauch zu erkennen.

Überwachungskennzahlen

Was wir verfolgen:

  • Halluzinationsrate: Verfolgt durch Benutzerberichte und automatisierte Erkennung

  • Antwortgenauigkeit: Stichprobenartige Validierung gegen Ground-Truth-Compliance-Standards

  • Nutzungsmuster: Erkennung von systemfremder oder unangemessener Nutzung

  • Leistungskennzahlen: Antwortzeit, Abrufpräzision, Fehlerraten

  • Benutzerfeedback: Berichte über nachteilige Auswirkungen, Support-Tickets, Feature-Requests

Kontinuierlicher Verbesserungszyklus

Monitoring-Daten fließen in iterative Verbesserungen ein:

Feedback-Schleifen:

  • Benutzerfeedback und Berichte über Fehler → Modell-Updates und Abruf-Tuning

  • Sicherheitstestergebnisse → Sicherheitsverbesserungen und Control-Updates

  • Regulatorische Änderungen und Best Practices → Dokumentations- und Framework-Updates

  • Leistungsüberwachung → Genauigkeitsverbesserungen und Antwortoptimierung

Incident Response

Wir benachrichtigen Benutzer über KI-bezogene Vorfälle, um Transparenz und Vertrauen zu wahren.

Benachrichtigungskanäle:

  • E-Mail-Benachrichtigungen bei kritischen Vorfällen, die die KI-Funktionalität beeinträchtigen

  • Slack-Benachrichtigungen für abonnierte Teams

  • Statusseite Updates mit Incident-Timelines und Lösungen

  • NIS2-konforme Frühwarnungen (Meldung innerhalb von 24 Stunden bei erheblichen Cybersicherheitsvorfällen)

Abonnieren Sie unsere Statusseite, um Echtzeit-Benachrichtigungen über Vorfälle im KI-System, Wartungsarbeiten und Updates zu erhalten.

Bekannte Einschränkungen

KI-Systeme haben inhärente Einschränkungen, die Benutzer verstehen müssen, um sie verantwortungsvoll zu nutzen.

Technische Einschränkungen

KI-Ergebnisse können Ungenauigkeiten enthalten (Halluzinationen), selbst mit RAG-Absicherung. Benutzer müssen alle Ergebnisse gegen offizielle Standards und Vorschriften prüfen.

Aktuelle Einschränkungen:

  • Probabilistische Natur: Die KI generiert Antworten basierend auf statistischen Mustern, nicht auf deterministischer Logik

  • Kein Internetzugang: Die KI kann keine Echtzeit-Informationen abrufen oder auf externe Websites zugreifen

  • Keine Code-Ausführung: Die KI kann keine Berechnungen durchführen, Skripte ausführen oder technische Implementierungen validieren

  • Knowledge Cutoff: Das Wissen des KI-Modells ist auf das Datum der Trainingsdaten begrenzt (variiert je nach Anbieter)

  • Kontextgrenzen: Das maximale Kontextfenster begrenzt die Menge an Informationen, die in einer einzigen Anfrage verarbeitet werden kann

  • Fachbereichsgrenzen: Die KI ist auf Compliance/Sicherheit trainiert; Leistung in anderen Bereichen ist nicht garantiert

Detaillierte Einschränkungen und Workarounds finden Sie auf unserer Seite für bekannte Probleme.

Verantwortung des Benutzers zur Verifizierung

ISMS Copilot soll fachliches Urteilsvermögen unterstützen, nicht ersetzen:

  • Gleichen Sie KI-Vorschläge mit offiziellen Standards ab

  • Validieren Sie kritische Informationen vor der Einreichung bei Auditoren

  • Nutzen Sie die KI wie einen Berater-Assistenten, nicht als Ersatz für Fachwissen

  • Lassen Sie berufliches Urteilsvermögen bei der Anwendung von KI-Empfehlungen walten

Siehe So nutzen Sie ISMS Copilot verantwortungsbewusst für Best Practices zur Verifizierung.

Reporting & Feedback

Benutzerfeedback ist entscheidend für die Verbesserung des KI-Systems. Wir bieten mehrere Mechanismen zur Meldung von Problemen, Ungenauigkeiten oder unerwartetem Verhalten.

So melden Sie Probleme

Fehlerhafte Auswirkungen oder Halluzinationen:

  1. Navigieren Sie zum Benutzermenü (oben rechts) > Hilfe-Center > Support kontaktieren

  2. Fügen Sie Prompt, Antwort und Screenshots in Ihren Bericht ein

  3. Erwarten Sie eine Antwort innerhalb von 48 Stunden

In-Plattform-Reporting:

  • Nutzen Sie die Schaltfläche „Problem melden“, die auf der gesamten Plattform verfügbar ist, um spezifische KI-Antworten zu markieren

Was nach Ihrer Meldung passiert

  1. Sofortige Prüfung (innerhalb von 48 Stunden): Das Support-Team bewertet Schweregrad und Auswirkung

  2. Untersuchung: Das Technik-Team analysiert das Problem, reproduziert es und identifiziert die Ursache

  3. Rückmeldung: Sie erhalten ein Update zu den Ergebnissen und geplanten Maßnahmen

  4. Behebung: Probleme werden durch Modell-Updates, Abruf-Tuning, Code-Fixes oder Dokumentationsverbesserungen behoben

  5. Kontinuierliche Verbesserung: Gewonnene Erkenntnisse werden in Test- und Monitoring-Prozesse integriert

Probleme mit hohem Schweregrad (Sicherheitsrisiken, Datenlecks, kritische Halluzinationen) werden sofort zur dringenden Behebung eskaliert.

Siehe Überblick über KI-Sicherheit & verantwortungsvolle Nutzung für detaillierte Meldeanweisungen.

Dokumentations-Updates

Technische Spezifikationen werden aktualisiert, wenn:

  • KI-Anbieter wechseln (neue Modelle, veraltete APIs)

  • Die Architektur sich weiterentwickelt (neue Komponenten, Validierungsmethoden)

  • Anforderungen überarbeitet werden (neue Sicherheitsvorgaben, Leistungsziele)

  • Testpraktiken erweitert werden (neue Validierungstechniken, Sicherheitstools)

Updates werden über die Release Notes und diese Dokumentationsseite kommuniziert. Abonnieren Sie unsere Statusseite für Änderungsbenachrichtigungen.

Nächste Schritte

Hilfe erhalten

Für technische Fragen zu KI-Systemspezifikationen oder um zusätzliche Dokumentation anzufordern:

  • Kontaktieren Sie den Support über das Hilfe-Center-Menü

  • Melden Sie Sicherheitsbedenken sofort zur Untersuchung

  • Besuchen Sie das Trust Center für detaillierte Informationen zur AI Governance

  • Prüfen Sie die Statusseite auf bekannte Probleme

War das hilfreich?