Technischer Überblick über das KI-System
Überblick
Dieser Artikel bietet technische Transparenz darüber, wie die KI-Systeme von ISMS Copilot entwickelt, getestet und betrieben werden. Diese Details belegen unser Engagement für eine verantwortungsvolle KI-Entwicklung durch nachprüfbare Implementierungspraktiken.
Zielgruppe
Dieser Artikel richtet sich an:
Sicherheits- und Compliance-Teams, die KI-Governance-Kontrollen bewerten
Auditoren, die die Implementierung von KI-Systemen anhand von Richtlinien beurteilen
Risikomanager, die technische Transparenz für KI-Systeme benötigen
Technische Anwender, die die KI-Architektur verstehen möchten
ISO 42001 Implementierung
Das KI-System von ISMS Copilot wird in Übereinstimmung mit den Anforderungen der ISO 42001:2023 (Managementsystem für Künstliche Intelligenz) entwickelt und betrieben. Unsere technische Implementierung orientiert sich an spezifischen ISO 42001-Kontrollen:
Architekturausrichtung:
A.4.2 (Kontexterstellung): System zur dynamischen Wissensinjektion von Frameworks, dokumentiert im AI System Design Document (AI-SDD-001)
A.5 (Folgenabschätzung): Umfassendes AI Impact Assessment (Einstufung als 1.9 Niedriges Risiko, EU AI Act Begrenztes Risiko)
A.6 (Verantwortungsbewusste Entwicklung): Sicherer Entwicklungslebenszyklus mit Regressionstests, SAST/DAST-Scans, Prompt Injection Tests
A.7 (Datenmanagement): Zero Data Retention-Vereinbarungen, Workspace-Isolierung, benutzergesteuerte Aufbewahrungsfristen
A.8 (Benutzerinteraktion): Transparenzhinweise, Human-in-the-Loop-Design, Verifizierungs-Disclaimers auf der gesamten Plattform
A.9 (Verantwortungsvolle Nutzung): Zweckbindung, Jailbreak-Prävention, Leitplanken für den Inhaltsbereich
Siehe Wie ISMS Copilot ISO 42001 implementiert für die vollständige Dokumentation unseres KI-Managementsystems, der Risikobewertungen, Bias-Tests und Leistungsüberwachung.
Dynamische Framework-Wissensinjektions-Architektur
ISMS Copilot nutzt die dynamische Wissensinjektion von Frameworks, um KI-Antworten auf verifiziertem Compliance-Wissen zu basieren. Ab Version 2.5 (Februar 2025) ersetzt dies die bisherige RAG-Architektur (Retrieval-Augmented Generation) durch einen zuverlässigeren und Token-effizienteren Ansatz.
Funktionsweise der Framework-Wissensinjektion
Architektur-Komponenten:
Framework-Erkennungsschicht: Regex-basierter Musterabgleich erkennt Framework-Erwähnungen in Benutzeranfragen (ISO 27001, SOC 2, DSGVO, HIPAA, CCPA, NIS 2, DORA, ISO 42001, ISO 27701)
Wissensinjektionsschicht: Lädt dynamisch nur relevantes Framework-Wissen basierend auf den erkannten Frameworks in den KI-Kontext
Generierungsschicht: Large Language Models (LLMs) von Enterprise-KI-Anbietern erhalten Framework-Wissen, bevor sie Antworten generieren
Validierungsmechanismus: Das der KI zur Verfügung gestellt Framework-Wissen stellt sicher, dass Antworten auf tatsächlichen Compliance-Anforderungen basieren und nicht auf probabilistischem Raten
Die dynamische Wissensinjektion von Frameworks eliminiert Halluzinationen, indem sie der KI tatsächliches Framework-Wissen zur Verfügung stellt, bevor sie antwortet. Die Erkennung erfolgt vor der KI-Verarbeitung (nicht KI-basiert), was eine 100%ige Zuverlässigkeit gewährleistet, wenn Frameworks erwähnt werden.
Warum dynamische Injektion für Compliance wichtig ist:
Eliminiert Halluzinationen: Die KI erhält verifiziertes Framework-Wissen vor der Beantwortung, was erfundene Kontrollnummern und Anforderungen verhindert
Token-Effizienz: Nur relevante Frameworks werden geladen (~1-2K Token) im Gegensatz zum Senden des gesamten Wissens (~10K Token) bei jeder Anfrage
Zuverlässige Erkennung: Regex-Musterabgleich (nicht KI-basiert) stellt sicher, dass Framework-Erwähnungen niemals übersehen werden
Erweiterbare Architektur: Neue Frameworks werden mit einer einzigen Objektdefinition hinzugefügt, kein erneutes Modelltraining erforderlich
Multi-Framework-Unterstützung: Verarbeitet Abfragen, die mehrere Frameworks gleichzeitig erwähnen (z. B. \"ISO 27001 auf SOC 2 mappen\")
Technische Implementierung
Erkennungsprozess:
Benutzer sendet Anfrage (z. B. \"Was ist ISO 27001 Annex A.5.9?\")
Framework-Erkennung scannt Anfrage nach Musterübereinstimmungen (ISO 27001, DSGVO, SOC 2 usw.)
Übereinstimmende Frameworks lösen Wissensinjektion aus
Relevantes Framework-Wissen wird vor der Generierung zum KI-System-Prompt hinzugefügt
Unterstützte Frameworks (v2.5):
ISO 27001:2022 — Informationssicherheits-Managementsystem
ISO 42001:2023 — Managementsystem für Künstliche Intelligenz
ISO 27701:2025 — Datenschutz-Managementsystem
SOC 2 — Service Organization Control (Trust Services Criteria)
HIPAA — Health Insurance Portability and Accountability Act
GDPR / DSGVO — Datenschutz-Grundverordnung
CCPA — California Consumer Privacy Act
NIS 2 — Network and Information Systems Directive
DORA — Digital Operational Resilience Act
Weitere Frameworks werden kontinuierlich hinzugefügt. Nächste Prioritäten sind NIST 800-53, PCI DSS und zusätzliche regionale Regulierungen. Prüfen Sie den Produkt-Changelog für Updates.
Evolution von RAG zur Dynamischen Injektion
Bisheriger Ansatz (vor v2.5): RAG-Architektur
Semantische Suche rief relevante Dokumentationsausschnitte ab
Qualität des Abrufs variierte je nach Formulierung der Anfrage
Alle ~10K Token an Wissen wurden bei vielen Anfragen gesendet
Primär auf ISO 27001 fokussiert
Aktueller Ansatz (v2.5+): Dynamische Framework-Injektion
Regex-basierte Erkennung gewährleistet zuverlässige Framework-Identifikation
Nur relevante Frameworks geladen (Token-effizient)
Unterstützt 9 Frameworks gleichzeitig
Erweiterbares Design für schnelle Framework-Ergänzungen
Wenn Sie in älterer Dokumentation oder externen Quellen Hinweise auf eine "RAG-Architektur" finden, beachten Sie bitte, dass ISMS Copilot in Version 2.5 (Februar 2025) auf die dynamische Framework-Wissensinjektion umgestellt hat. Der neue Ansatz ist zuverlässiger und unterstützt wesentlich mehr Frameworks.
KI-Anbieter & Datenschutz
Wir nutzen KI-Anbieter der Enterprise-Klasse mit strengen Datenschutzvereinbarungen.
Aktuelle Anbieter
Backend-KI-Modelle:
OpenAI GPT-5.2 (Standard) — Fortgeschrittene Logik und Compliance-Analyse
Anthropic Claude Opus — Backend-Integration für nuancierte Richtlinienentwürfe
xAI Grok — Alternativer Anbieter für diverse Anwendungsfälle
Mistral AI — In der EU ansässiger Anbieter für den erweiterten Datenschutzmodus
OpenAI GPT-5.2 ist der aktuelle Standardanbieter für alle Konversationen. Zusätzliche KI-Anbieter sind im Backend integriert, eine Benutzeroberfläche zur Modellauswahl ist für 2026 geplant. Alle Modelle greifen über die dynamische Framework-Injektion auf dieselbe spezialisierte Compliance-Wissensdatenbank zu, was eine konsistente und zuverlässige Beratung gewährleistet.
Zero Data Retention-Vereinbarungen
Alle KI-Anbieter arbeiten unter Zero Data Retention (ZDR) Vereinbarungen:
Ihre Daten werden NIEMALS zum Trainieren von KI-Modellen verwendet. ZDR-Vereinbarungen stellen sicher, dass Ihre Konversationen, hochgeladenen Dokumente und Workspace-Inhalte vertraulich bleiben und von den KI-Anbietern nicht über die Bearbeitung Ihrer Anfragen hinaus aufbewahrt werden.
Bedingungen der ZDR-Vereinbarung:
Keine Speicherung von Benutzerdaten über die Anfragebearbeitung hinaus
Kein Modelltraining mit Kundeninhalten
DSGVO-konforme Datentransfers mit Standardvertragsklauseln (SCCs)
Durchsetzung von Enterprise-Sicherheitsstandards
Detaillierte Informationen zu Auftragsverarbeitern und Datenflüssen finden Sie in unserem Verzeichnis der Verarbeitungstätigkeiten.
Entwicklungsanforderungen
Jede Komponente des KI-Systems wird gegen dokumentierte Anforderungen entwickelt, die das erwartete Verhalten, Sicherheitsbeschränkungen und Leistungsschwellenwerte definieren.
Funktionale Anforderungen
Scope-Definition:
Die KI bietet Unterstützung bei der Einhaltung von Vorschriften, keine Rechtsberatung
Aufgabengrenzen: Erstellung von Richtlinien, Gap-Analyse, Audit-Vorbereitung, Überprüfung von Dokumenten
Erzwingung von Einschränkungen: kein Internetzugang, keine Code-Ausführung, keine Verarbeitung personenbezogener Daten über die Plattformnutzung hinaus
Leistungsanforderungen
Qualitätsziele:
Antwortgenauigkeit basierend auf abgerufenen Quellen mit Quellenangabe
Kontextfenster ausreichend für Compliance-Analysen über mehrere Dokumente hinweg
Antwortzeit optimiert für interaktive Nutzung (Ziel: unter 10 Sekunden)
Rate-Limits pro Benutzerebene definiert, um die Systemstabilität zu gewährleisten
Sicherheitsanforderungen
Vermeidung von Halluzinationen:
Quellenbindung: Antworten müssen sich auf abgerufene Dokumentationen beziehen
Abrufvalidierung: Antworten werden gegen den Quellinhalt geprüft
Konfidenzbewertung: Unsicherheit wird eingestanden, wenn Quellen mehrdeutig sind
Haftungsausschluss zur Benutzerverifizierung: Alle Ausgaben erfordern eine menschliche Überprüfung
Inhaltsfilterung:
Erkennung und Blockierung unangemessener Inhalte
Bereichsgrenzen: Die KI lehnt Anfragen außerhalb des Bereichs ab (z. B. nicht verwandte Themen, medizinische/rechtliche Beratung)
Schutz vor Jailbreak und Prompt Injection
Siehe Überblick über KI-Sicherheit & verantwortungsvolle Nutzung für detaillierte Sicherheitsleitplanken.
Anforderungen an die Datenverarbeitung
Privacy by Design:
Keine Benutzerdaten für das Modelltraining (ZDR-Vereinbarungen durchgesetzt)
Datenminimierung: nur notwendige Daten werden für Abruf und Generierung verarbeitet
Temporäre Verarbeitung: keine langfristige Speicherung von Prompts/Antworten über die Session-Logs hinaus
Aufbewahrungskontrollen: vom Benutzer konfigurierbare Datenaufbewahrungsfristen (1 Tag bis 7 Jahre oder dauerhafte Speicherung)
Transferkontrollen: DSGVO-konforme Datentransfers mit SCCs
Umfassende Praktiken zur Datenverarbeitung finden Sie in unserer Datenschutzerklärung.
Verifizierungs- & Validierungstests
KI-Systeme werden vor dem Rollout strengen Tests unterzogen. Kein System geht live, ohne die anforderungsbasierte Validierung bestanden zu haben.
Regressionstests
Automatisierte Tests laufen bei jeder Codeänderung, um sicherzustellen, dass bestehende Funktionen intakt bleiben.
Testabdeckung:
Abrufgenauigkeit: Präzision und Recall gegen Ground-Truth-Datensätze
Antwort-Fundierung: Überprüfung, ob Ausgaben die abgerufenen Quellen zitieren
Halluzinationserkennung: Abgleich mit bekannten fehlerhaften Antworten
Leistungsbenchmarks: Validierung von Antwortzeit und Kontextverarbeitung
Sicherheitstests
KI-Systeme durchlaufen dieselbe Sicherheitsvalidierung wie alle Plattformkomponenten.
Testing-Pipeline:
SAST (Static Application Security Testing): Schwachstellenscan auf Code-Ebene mit Semgrep-Integration
DAST (Dynamic Application Security Testing): Sicherheitsvalidierung zur Laufzeit
Penetrationstests: Jährliche Sicherheitsbewertungen durch Dritte
Prompt Injection Testing: Validierung gegen gegnerische Eingaben, die versuchen, Sicherheitsbeschränkungen zu umgehen
Unser sicherer Entwicklungslebenszyklus stellt sicher, dass KI-Systeme die gleichen Sicherheitsstandards erfüllen wie alle anderen Plattformkomponenten. Siehe unsere Sicherheitsrichtlinien für detaillierte Testpraktiken.
UAT (User Acceptance Testing)
Die Validierung realer Szenarien mit Compliance-Experten stellt sicher:
Ausgaben entsprechen professionellen Qualitätsstandards
Antworten sind für Compliance-Anwendungsfälle angemessen
Einschränkungen werden klar kommuniziert
Feedback-Mechanismen sind zugänglich und effektiv
Checkliste für die Deployment-Validierung
KI-Systeme werden erst bereitgestellt, wenn sie die dokumentierten Anforderungen erfüllen:
Das Deployment erfordert 100 % Erfolg bei Regressionstests, abgeschlossene Sicherheitsscans (keine kritischen oder hocheinstufigen Schwachstellen), erfüllte Leistungsbenchmarks, aktualisierte Benutzerdokumentation inklusive Einschränkungen sowie konfiguriertes Monitoring/Alerting zur Verfolgung der Halluzinationsrate.
Bereitstellungen, die die Validierung nicht bestehen, werden zurückgerollt, bis die Anforderungen erfüllt sind.
Überwachung & kontinuierliche Verbesserung
Nach dem Deployment überwachen wir das Verhalten des KI-Systems, um Verschlechterungen, neu auftretende Probleme oder Missbrauch zu erkennen.
Monitoring-Metriken
Was wir tracken:
Halluzinationsrate: Verfolgt durch Benutzerberichte und automatisierte Erkennung
Antwortgenauigkeit: Stichprobenartige Validierung gegen Ground-Truth-Compliance-Standards
Nutzungsmuster: Erkennung von nutzungsfremder oder unangemessener Verwendung
Leistungsmetriken: Antwortzeit, Abrufpräzision, Fehlerraten
Benutzerfeedback: Berichte über negative Auswirkungen, Support-Tickets, Feature-Anfragen
Kontinuierlicher Verbesserungszyklus
Überwachungsdaten fließen in iterative Verbesserungen ein:
Feedback-Schleifen:
Benutzerfeedback und Berichte über negative Auswirkungen → Modell-Updates und Abruf-Tuning
Ergebnisse von Sicherheitstests → Sicherheitsverbesserungen und Kontroll-Updates
Regulatorische Änderungen und Best Practices → Dokumentations- und Framework-Updates
Leistungsüberwachung → Genauigkeitsverbesserungen und Antwortoptimierung
Incident Response
Wir benachrichtigen Benutzer über KI-bezogene Vorfälle, um Transparenz und Vertrauen zu wahren.
Benachrichtigungskanäle:
E-Mail-Benachrichtigungen bei kritischen Vorfällen, die die KI-Funktionalität beeinträchtigen
Slack-Benachrichtigungen für abonnierte Teams
Statusseite Updates mit Zeitplänen für Vorfälle und deren Behebung
NIS2-konforme Frühwarnmeldungen (24-Stunden-Meldung bei erheblichen Cybersicherheitsvorfällen)
Abonnieren Sie unsere Statusseite, um Echtzeit-Benachrichtigungen über Vorfälle, Wartungsarbeiten und Updates des KI-Systems zu erhalten.
Bekannte Einschränkungen
KI-Systeme haben inhärente Einschränkungen, die Benutzer verstehen müssen, um sie verantwortungsvoll zu nutzen.
Technische Einschränkungen
KI-Ausgaben können trotz RAG-Fundierung Ungenauigkeiten (Halluzinationen) enthalten. Benutzer müssen alle Ausgaben mit offiziellen Standards und Vorschriften abgleichen.
Aktuelle Einschränkungen:
Probabilistische Natur: KI generiert Antworten basierend auf statistischen Mustern, nicht auf deterministischer Logik
Kein Internetzugang: Die KI kann keine Echtzeitinformationen abrufen oder auf externe Websites zugreifen
Keine Code-Ausführung: Die KI kann keine Berechnungen durchführen, Skripte ausführen oder technische Implementierungen validieren
Wissensstand: Das Wissen des KI-Modells ist auf das Datum des Trainingsdatenschlusses begrenzt (variiert je nach Anbieter)
Kontextlimits: Das maximale Kontextfenster begrenzt die Informationsmenge, die in einer einzigen Anfrage verarbeitet werden kann
Domänengrenzen: Die KI ist auf Compliance/Sicherheit trainiert; die Leistung in anderen Domänen ist nicht garantiert
Detaillierte Einschränkungen und Workarounds finden Sie auf unserer Seite für Bekannte Probleme.
Verantwortung des Benutzers zur Verifizierung
ISMS Copilot ist so konzipiert, dass es professionelles Urteilsvermögen unterstützt, nicht ersetzt:
Gleichen Sie KI-Vorschläge mit offiziellen Standards ab
Validieren Sie kritische Informationen vor der Einreichung an Auditoren
Nutzen Sie die KI als Assistenten eines Beraters, nicht als Ersatz für Fachwissen
Wenden Sie professionelles Urteilsvermögen bei der Umsetzung von KI-Empfehlungen an
Siehe Wie man ISMS Copilot verantwortungsvoll nutzt für Best Practices zur Verifizierung.
Meldung & Feedback
Benutzerfeedback ist entscheidend für die Verbesserung des KI-Systems. Wir bieten mehrere Mechanismen zur Meldung von Problemen, Ungenauigkeiten oder unerwartetem Verhalten.
So melden Sie Probleme
Negative Auswirkungen oder Halluzinationen:
Navigieren Sie zum Benutzermenü (oben rechts) > Hilfe-Center > Support kontaktieren
Fügen Sie Prompt, Antwort und Screenshots in Ihren Bericht ein
Erwarten Sie eine Antwort innerhalb von 48 Stunden
In-Platform Reporting:
Nutzen Sie die Schaltfläche "Problem melden", die auf der gesamten Plattform verfügbar ist, um spezifische KI-Antworten zu markieren
Was nach Ihrer Meldung passiert
Sofortige Überprüfung (innerhalb von 48 Stunden): Das Support-Team bewertet Schweregrad und Auswirkungen
Untersuchung: Das technische Team analysiert das Problem, reproduziert es und identifiziert die Grundursache
Rückmeldung: Sie erhalten ein Update zu den Ergebnissen und geplanten Maßnahmen
Behebung: Probleme werden durch Modell-Updates, Abruf-Tuning, Code-Fixes oder Dokumentationsverbesserungen behoben
Kontinuierliche Verbesserung: Gewonnene Erkenntnisse werden in Test- und Überwachungsprozesse integriert
Probleme mit hohem Schweregrad (Sicherheitsrisiken, Datenlecks, kritische Halluzinationen) werden sofort für eine dringende Behebung eskaliert.
Detaillierte Anweisungen zur Meldung finden Sie im Überblick über KI-Sicherheit & verantwortungsvolle Nutzung.
Aktualisierungen der Dokumentation
Technische Spezifikationen werden aktualisiert, wenn:
KI-Anbieter sich ändern (neue Modelle, veraltete APIs)
Die Architektur sich weiterentwickelt (neue Komponenten, Validierungsmethoden)
Anforderungen revidiert werden (neue Sicherheitsbeschränkungen, Leistungsziele)
Testpraktiken erweitert werden (neue Validierungstechniken, Sicherheitswerkzeuge)
Aktualisierungen werden über Release Notes und diese Dokumentationsseite kommuniziert. Abonnieren Sie unsere Statusseite für Änderungsbenachrichtigungen.
Nächste Schritte
Erfahren Sie mehr über KI-Sicherheitsleitplanken und verantwortungsvolle Nutzung
Best Practices für die verantwortungsvolle Nutzung von ISMS Copilot befolgen
Hilfe anfordern
Für technische Fragen zu KI-Systemspezifikationen oder zur Anforderung zusätzlicher Dokumentation:
Kontaktieren Sie den Support über das Hilfe-Center-Menü
Melden Sie Sicherheitsbedenken sofort zur Untersuchung
Besuchen Sie das Trust Center für detaillierte Informationen zur KI-Governance
Prüfen Sie die Statusseite für bekannte Probleme