Technischer Überblick über das KI-System
Überblick
Dieser Artikel bietet technische Transparenz darüber, wie die KI-Systeme von ISMS Copilot entwickelt, getestet und betrieben werden. Diese Details belegen unser Engagement für eine verantwortungsvolle KI-Entwicklung durch verifizierbare Implementierungspraktiken.
Zielgruppe
Dieser Artikel richtet sich an:
Security- und Compliance-Teams, die KI-Governance-Controls bewerten
Auditoren, die die Implementierung von KI-Systemen gegen Richtlinien prüfen
Risikomanager, die technische Transparenz für KI-Systeme benötigen
Technische Anwender, die die KI-Architektur verstehen möchten
Dynamic Framework Knowledge Architektur
ISMS Copilot nutzt eine dynamische Framework-Wissensinjektion (Dynamic Framework Knowledge Injection), um KI-Antworten auf verifiziertem Compliance-Wissen zu begründen. Ab Version 2.5 (Februar 2025) ersetzt dies die bisherige RAG-Architektur (Retrieval-Augmented Generation) durch einen zuverlässigeren und Token-effizienteren Ansatz.
Wie die Framework-Wissensinjektion funktioniert
Architektur-Komponenten:
Framework-Erkennungsschicht: Regex-basiertes Pattern Matching erkennt Framework-Erwähnungen in Benutzeranfragen (ISO 27001, SOC 2, GDPR, HIPAA, CCPA, NIS 2, DORA, ISO 42001, ISO 27701)
Wissensinjektionsschicht: Lädt dynamisch nur das relevante Framework-Wissen in den KI-Kontext, basierend auf den erkannten Frameworks
Generierungsschicht: Large Language Models (LLMs) von Enterprise-KI-Anbietern erhalten Framework-Wissen, bevor sie Antworten generieren
Validierungsmechanismus: Das der KI bereitgestellte Framework-Wissen stellt sicher, dass Antworten auf tatsächlichen Compliance-Anforderungen basieren und nicht auf probabilistischem Raten
Die dynamische Framework-Wissensinjektion eliminiert Halluzinationen, indem sie der KI tatsächliches Framework-Wissen zur Verfügung stellt, bevor sie antwortet. Die Erkennung findet vor der KI-Verarbeitung statt (nicht KI-basiert), was eine 100%ige Zuverlässigkeit gewährleistet, wenn Frameworks erwähnt werden.
Warum dynamische Injektion für Compliance wichtig ist:
Eliminiert Halluzinationen: Die KI erhält verifiziertes Framework-Wissen vor der Beantwortung, was die Erfindung von Kontrollnummern und Anforderungen verhindert
Token-Effizienz: Nur relevante Frameworks werden geladen (~1-2K Token) im Vergleich zum Senden des gesamten Wissens (~10K Token) bei jeder Anfrage
Zuverlässige Erkennung: Regex-Pattern-Matching (nicht KI-basiert) stellt sicher, dass Framework-Erwähnungen niemals übersehen werden
Erweiterbare Architektur: Neue Frameworks werden mit einer einzigen Objektdefinition hinzugefügt, ohne dass ein Modell-Retraining erforderlich ist
Multi-Framework-Unterstützung: Verarbeitet Anfragen, die mehrere Frameworks gleichzeitig erwähnen (z. B. „ISO 27001 auf SOC 2 mappen“)
Technische Implementierung
Erkennungsprozess:
Benutzer reicht Anfrage ein (z. B. „Was ist ISO 27001 Annex A.5.9?“)
Die Framework-Erkennung scannt die Anfrage nach Pattern-Matches (ISO 27001, DSGVO, SOC 2 usw.)
Übereinstimmende Frameworks lösen die Wissensinjektion aus
Relevantes Framework-Wissen wird dem Prompt des KI-Systems vor der Generierung hinzugefügt
Unterstützte Frameworks (v2.5):
ISO 27001:2022 — Informationssicherheits-Managementsystem
ISO 42001:2023 — Künstliche Intelligenz Managementsystem
ISO 27701:2025 — Datenschutz-Informationsmanagement
SOC 2 — Service Organization Control (Trust Services Criteria)
HIPAA — Health Insurance Portability and Accountability Act
GDPR (DSGVO) — Datenschutz-Grundverordnung
CCPA — California Consumer Privacy Act
NIS 2 — Netzwerk- und Informationssicherheits-Richtlinie
DORA — Digital Operational Resilience Act
Weitere Frameworks werden kontinuierlich hinzugefügt. Die nächsten Prioritäten sind NIST 800-53, PCI DSS und zusätzliche regionale Vorschriften. Informationen zu Updates finden Sie im Produkt-Changelog.
Evolution von RAG zu Dynamic Injection
Bisheriger Ansatz (vor v2.5): RAG-Architektur
Semantische Suche rief relevante Snippets aus der Dokumentation ab
Die Qualität des Abrufs variierte je nach Formulierung der Anfrage
Alle ~10K Token des Wissens wurden bei vielen Anfragen gesendet
Hauptfokus auf ISO 27001
Aktueller Ansatz (v2.5+): Dynamic Framework Injection
Regex-basierte Erkennung gewährleistet zuverlässige Framework-Identifikation
Nur relevante Frameworks werden geladen (Token-effizient)
Unterstützt 9 Frameworks gleichzeitig
Erweiterbares Design für schnelle Framework-Ergänzungen
Sollten Sie in älteren Dokumenten oder externen Quellen Hinweise auf eine „RAG-Architektur“ sehen, beachten Sie bitte, dass ISMS Copilot in Version 2.5 (Februar 2025) auf die dynamische Framework-Wissensinjektion umgestellt wurde. Der neue Ansatz ist zuverlässiger und unterstützt wesentlich mehr Frameworks.
KI-Anbieter & Datenschutz
Wir nutzen KI-Anbieter der Enterprise-Klasse mit strengen Datenschutzvereinbarungen.
Aktuelle Anbieter
Backend-KI-Modelle:
OpenAI GPT-5.2 (Standard) — Fortgeschrittene Logik und Compliance-Analyse
Anthropic Claude Opus — Backend-Integration für detaillierte Richtlinienentwürfe
xAI Grok — Alternativer Anbieter für verschiedene Anwendungsfälle
Mistral AI — EU-basierter Anbieter für den erweiterten Datenschutz-Modus
OpenAI GPT-5.2 ist der derzeitige Standardanbieter für alle Konversationen. Zusätzliche KI-Anbieter sind im Backend integriert; eine Benutzeroberfläche zur Modellauswahl ist für 2026 geplant. Alle Modelle greifen über die dynamische Framework-Injektion auf dieselbe spezialisierte Compliance-Wissensbasis zu, was eine konsistente und zuverlässige Anleitung gewährleistet.
Null-Datenspeicherungs-Vereinbarungen (Zero Data Retention)
Alle KI-Anbieter arbeiten unter Zero Data Retention (ZDR) Vereinbarungen:
Ihre Daten werden NIEMALS zum Trainieren von KI-Modellen verwendet. ZDR-Vereinbarungen stellen sicher, dass Ihre Konversationen, hochgeladenen Dokumente und Workspace-Inhalte vertraulich bleiben und von den KI-Anbietern über die Bearbeitung Ihrer Anfragen hinaus nicht gespeichert werden.
ZDR-Vereinbarungsbedingungen:
Keine Speicherung von Benutzerdaten über die Anfragebearbeitung hinaus
Kein Modelltraining mit Kundeninhalten
DSGVO-konforme Datentransfers mit Standardvertragsklauseln (SCCs)
Durchsetzung von Sicherheitsstandards auf Enterprise-Niveau
Detaillierte Informationen zu Auftragsverarbeitern und Datenflüssen finden Sie in unserem Verzeichnis von Verarbeitungstätigkeiten.
Entwicklungsanforderungen
Jede Komponente des KI-Systems wird gegen dokumentierte Anforderungen entwickelt, die das erwartete Verhalten, Sicherheitsbeschränkungen und Leistungsschwellenwerte definieren.
Funktionale Anforderungen
Definition des Umfangs:
KI bietet Unterstützung bei der Compliance, keine Rechtsberatung
Aufgabengrenzen: Richtlinienerstellung, Gap-Analyse, Audit-Vorbereitung, Dokumentenprüfung
Erzwingung von Einschränkungen: kein Internetzugang, keine Code-Ausführung, keine Verarbeitung personenbezogener Daten über die Plattformnutzung hinaus
Leistungsanforderungen
Qualitätsziele:
Die Genauigkeit der Antworten basiert auf abgerufenen Quellen mit Quellenangabe
Kontextfenster ausreichend für die Compliance-Analyse mehrerer Dokumente
Antwortzeit optimiert für interaktive Nutzung (Ziel: unter 10 Sekunden)
Rate-Limits pro Benutzerstufe definiert, um die Systemstabilität zu gewährleisten
Sicherheitsanforderungen
Minderung von Halluzinationen:
Quellenbasierung: Antworten müssen sich auf abgerufene Dokumentation beziehen
Validierung des Abrufs: Antworten werden gegen den Quellinhalt geprüft
Vertrauenswertung: Unsicherheit wird eingestanden, wenn Quellen zweideutig sind
Haftungsausschluss für Benutzerverifizierung: Alle Ausgaben erfordern eine menschliche Überprüfung
Inhaltsfilterung:
Erkennung und Blockierung unangemessener Inhalte
Umfangsgrenzen: Die KI lehnt Anfragen außerhalb des Zuständigkeitsbereichs ab (z. B. themenfremde Themen, medizinische/rechtliche Beratung)
Schutz vor Jailbreaks und Prompt Injection
Siehe Überblick über KI-Sicherheit & verantwortungsvolle Nutzung für detaillierte Sicherheitsmaßnahmen.
Anforderungen an die Datenverarbeitung
Privacy by Design:
Keine Nutzung von Benutzerdaten für Modelltraining (ZDR-Vereinbarungen erzwungen)
Datenminimierung: Nur notwendige Daten werden für Abruf und Generierung verarbeitet
Temporäre Verarbeitung: Keine langfristige Speicherung von Prompts/Antworten über Sitzungsprotokolle hinaus
Aufbewahrungskontrollen: Vom Benutzer konfigurierbare Datenaufbewahrungsfristen (1 Tag bis 7 Jahre oder dauerhaft)
Transferkontrollen: DSGVO-konforme Datentransfers mit SCCs
Vollständige Informationen zu unseren Datenverarbeitungspraktiken finden Sie in unserer Datenschutzerklärung.
Verifizierung & Validierungstests
KI-Systeme werden vor dem Deployment strengen Tests unterzogen. Kein System geht live, ohne eine anforderungsbasierte Validierung bestanden zu haben.
Regressionstests
Automatisierte Tests laufen bei jeder Codeänderung, um sicherzustellen, dass bestehende Funktionen intakt bleiben.
Testabdeckung:
Genauigkeit des Abrufs: Präzision und Recall gegen Ground-Truth-Datensätze
Antwortbasierung: Überprüfung, ob Ausgaben die abgerufenen Quellen zitieren
Erkennung von Halluzinationen: Abgleich mit bekannten fehlerhaften Antworten
Leistungs-Benchmarks: Validierung der Antwortzeit und Kontextverarbeitung
Sicherheitstests
KI-Systeme durchlaufen dieselbe Sicherheitsvalidierung wie alle anderen Plattformkomponenten.
Testing-Pipeline:
SAST (Static Application Security Testing): Schwachstellen-Scanning auf Code-Ebene mit Semgrep-Integration
DAST (Dynamic Application Security Testing): Sicherheitsvalidierung zur Laufzeit
Penetrationstests: Jährliche Sicherheitsbewertungen durch Dritte
Prompt Injection Tests: Validierung gegen adversarial Inputs, die versuchen, Sicherheitsvorgaben zu umgehen
Unser sicherer Entwicklungslebenszyklus stellt sicher, dass KI-Systeme dieselben Sicherheitsstandards erfüllen wie alle anderen Plattformkomponenten. Siehe unsere Sicherheitsrichtlinien für detaillierte Testpraktiken.
User Acceptance Testing (UAT)
Die Validierung mit Compliance-Experten anhand realer Szenarien stellt sicher:
Die Ergebnisse entsprechen professionellen Qualitätsstandards
Die Antworten sind für Compliance-Anwendungsfälle angemessen
Einschränkungen werden klar kommuniziert
Feedback-Mechanismen sind zugänglich und effektiv
Checkliste für die Deployment-Validierung
KI-Systeme werden erst nach Erfüllung dokumentierter Anforderungen bereitgestellt:
Ein Deployment erfordert 100% Erfolg bei Regressionstests, bestandene Sicherheitsscans (keine kritischen/hohen Schwachstellen), Erfüllung von Leistungs-Benchmarks, aktualisierte Benutzerdokumentation inklusive Einschränkungen sowie konfiguriertes Monitoring/Alerting zur Überwachung der Halluzinationsrate.
Deployments, die die Validierung nicht bestehen, werden zurückgesetzt, bis die Anforderungen erfüllt sind.
Monitoring & Kontinuierliche Verbesserung
Nach dem Deployment überwachen wir das Verhalten des KI-Systems, um Verschlechterungen, aufkommende Probleme oder Missbrauch zu erkennen.
Überwachungskennzahlen
Was wir verfolgen:
Halluzinationsrate: Verfolgt durch Benutzerberichte und automatisierte Erkennung
Antwortgenauigkeit: Stichprobenartige Validierung gegen Ground-Truth-Compliance-Standards
Nutzungsmuster: Erkennung von systemfremder oder unangemessener Nutzung
Leistungskennzahlen: Antwortzeit, Abrufpräzision, Fehlerraten
Benutzerfeedback: Berichte über nachteilige Auswirkungen, Support-Tickets, Feature-Requests
Kontinuierlicher Verbesserungszyklus
Monitoring-Daten fließen in iterative Verbesserungen ein:
Feedback-Schleifen:
Benutzerfeedback und Berichte über Fehler → Modell-Updates und Abruf-Tuning
Sicherheitstestergebnisse → Sicherheitsverbesserungen und Control-Updates
Regulatorische Änderungen und Best Practices → Dokumentations- und Framework-Updates
Leistungsüberwachung → Genauigkeitsverbesserungen und Antwortoptimierung
Incident Response
Wir benachrichtigen Benutzer über KI-bezogene Vorfälle, um Transparenz und Vertrauen zu wahren.
Benachrichtigungskanäle:
E-Mail-Benachrichtigungen bei kritischen Vorfällen, die die KI-Funktionalität beeinträchtigen
Slack-Benachrichtigungen für abonnierte Teams
Statusseite Updates mit Incident-Timelines und Lösungen
NIS2-konforme Frühwarnungen (Meldung innerhalb von 24 Stunden bei erheblichen Cybersicherheitsvorfällen)
Abonnieren Sie unsere Statusseite, um Echtzeit-Benachrichtigungen über Vorfälle im KI-System, Wartungsarbeiten und Updates zu erhalten.
Bekannte Einschränkungen
KI-Systeme haben inhärente Einschränkungen, die Benutzer verstehen müssen, um sie verantwortungsvoll zu nutzen.
Technische Einschränkungen
KI-Ergebnisse können Ungenauigkeiten enthalten (Halluzinationen), selbst mit RAG-Absicherung. Benutzer müssen alle Ergebnisse gegen offizielle Standards und Vorschriften prüfen.
Aktuelle Einschränkungen:
Probabilistische Natur: Die KI generiert Antworten basierend auf statistischen Mustern, nicht auf deterministischer Logik
Kein Internetzugang: Die KI kann keine Echtzeit-Informationen abrufen oder auf externe Websites zugreifen
Keine Code-Ausführung: Die KI kann keine Berechnungen durchführen, Skripte ausführen oder technische Implementierungen validieren
Knowledge Cutoff: Das Wissen des KI-Modells ist auf das Datum der Trainingsdaten begrenzt (variiert je nach Anbieter)
Kontextgrenzen: Das maximale Kontextfenster begrenzt die Menge an Informationen, die in einer einzigen Anfrage verarbeitet werden kann
Fachbereichsgrenzen: Die KI ist auf Compliance/Sicherheit trainiert; Leistung in anderen Bereichen ist nicht garantiert
Detaillierte Einschränkungen und Workarounds finden Sie auf unserer Seite für bekannte Probleme.
Verantwortung des Benutzers zur Verifizierung
ISMS Copilot soll fachliches Urteilsvermögen unterstützen, nicht ersetzen:
Gleichen Sie KI-Vorschläge mit offiziellen Standards ab
Validieren Sie kritische Informationen vor der Einreichung bei Auditoren
Nutzen Sie die KI wie einen Berater-Assistenten, nicht als Ersatz für Fachwissen
Lassen Sie berufliches Urteilsvermögen bei der Anwendung von KI-Empfehlungen walten
Siehe So nutzen Sie ISMS Copilot verantwortungsbewusst für Best Practices zur Verifizierung.
Reporting & Feedback
Benutzerfeedback ist entscheidend für die Verbesserung des KI-Systems. Wir bieten mehrere Mechanismen zur Meldung von Problemen, Ungenauigkeiten oder unerwartetem Verhalten.
So melden Sie Probleme
Fehlerhafte Auswirkungen oder Halluzinationen:
Navigieren Sie zum Benutzermenü (oben rechts) > Hilfe-Center > Support kontaktieren
Fügen Sie Prompt, Antwort und Screenshots in Ihren Bericht ein
Erwarten Sie eine Antwort innerhalb von 48 Stunden
In-Plattform-Reporting:
Nutzen Sie die Schaltfläche „Problem melden“, die auf der gesamten Plattform verfügbar ist, um spezifische KI-Antworten zu markieren
Was nach Ihrer Meldung passiert
Sofortige Prüfung (innerhalb von 48 Stunden): Das Support-Team bewertet Schweregrad und Auswirkung
Untersuchung: Das Technik-Team analysiert das Problem, reproduziert es und identifiziert die Ursache
Rückmeldung: Sie erhalten ein Update zu den Ergebnissen und geplanten Maßnahmen
Behebung: Probleme werden durch Modell-Updates, Abruf-Tuning, Code-Fixes oder Dokumentationsverbesserungen behoben
Kontinuierliche Verbesserung: Gewonnene Erkenntnisse werden in Test- und Monitoring-Prozesse integriert
Probleme mit hohem Schweregrad (Sicherheitsrisiken, Datenlecks, kritische Halluzinationen) werden sofort zur dringenden Behebung eskaliert.
Siehe Überblick über KI-Sicherheit & verantwortungsvolle Nutzung für detaillierte Meldeanweisungen.
Dokumentations-Updates
Technische Spezifikationen werden aktualisiert, wenn:
KI-Anbieter wechseln (neue Modelle, veraltete APIs)
Die Architektur sich weiterentwickelt (neue Komponenten, Validierungsmethoden)
Anforderungen überarbeitet werden (neue Sicherheitsvorgaben, Leistungsziele)
Testpraktiken erweitert werden (neue Validierungstechniken, Sicherheitstools)
Updates werden über die Release Notes und diese Dokumentationsseite kommuniziert. Abonnieren Sie unsere Statusseite für Änderungsbenachrichtigungen.
Nächste Schritte
Erfahren Sie mehr über KI-Sicherheitsmaßnahmen und verantwortungsvolle Nutzung
Befolgen Sie Best Practices für die verantwortungsvolle Nutzung von ISMS Copilot
Hilfe erhalten
Für technische Fragen zu KI-Systemspezifikationen oder um zusätzliche Dokumentation anzufordern:
Kontaktieren Sie den Support über das Hilfe-Center-Menü
Melden Sie Sicherheitsbedenken sofort zur Untersuchung
Besuchen Sie das Trust Center für detaillierte Informationen zur AI Governance
Prüfen Sie die Statusseite auf bekannte Probleme