KI-Sicherheit und verantwortungsvolle Nutzung – Übersicht
Übersicht
ISMS Copilot implementiert umfassende KI-Sicherheitsmaßnahmen, um eine zuverlässige, vertrauenswürdige und verantwortungsbewusste KI-Unterstützung für Compliance-Experten zu gewährleisten. Dieser Artikel erläutert die Schutzmechanismen, Sicherheitsbeschränkungen und Praktiken für verantwortungsvolle KI, die in die Plattform integriert sind.
Zielgruppe
Dieser Artikel richtet sich an:
Compliance-Experten, die KI-Sicherheitsmaßnahmen bewerten
Risikomanager, die KI-Governance-Kontrollen prüfen
Sicherheitsteams, die besorgt über KI-Missbrauch sind
Jeden, der verstehen möchte, wie ISMS Copilot eine verantwortungsvolle KI-Nutzung sicherstellt
KI-Sicherheitsprinzipien
Das KI-Sicherheits-Framework von ISMS Copilot basiert auf vier Kernprinzipien:
1. Zweckbindung
Der KI-Assistent ist ausschließlich für die Informationssicherheits- und Compliance-Arbeit konzipiert:
Konzentriert auf ISMS-Frameworks (ISO 27001, SOC 2, DSGVO, NIST usw.)
Leitet themenfremde Fragen höflich auf Compliance-bezogene Themen um
Lehnt Anfragen für schädliche, illegale oder unethische Aktivitäten ab
Bleibt innerhalb der Grenzen der Compliance-Beratungsunterstützung
Durch die Beschränkung des Umfangs der KI auf Compliance und Sicherheit reduziert ISMS Copilot das Risiko von Missbrauch und stellt Fachwissen in seinem spezialisierten Bereich sicher, anstatt zu versuchen, ein Allzweck-Assistent zu sein.
2. Transparenz und Ehrlichkeit
Der KI-Assistent erkennt seine Grenzen offen an:
Weist bei Bedarf explizit auf Unsicherheiten hin
Fordert Benutzer auf, wichtige Informationen zu verifizieren
Gibt zu, wenn er etwas nicht weiß, anstatt zu raten
Erklärt klar, was er tun kann und was nicht
3. Schutz von Urheberrecht und geistigem Eigentum
ISMS Copilot respektiert Rechte an geistigem Eigentum:
Reproduziert keine urheberrechtlich geschützten ISO-Standards oder proprietären Inhalte
Verweist Benutzer darauf, offizielle Standards bei autorisierten Quellen zu erwerben
Bietet Orientierung basierend auf Framework-Prinzipien, ohne Texte zu kopieren
Trainiert auf rechtmäßig bezogenen, anonymisierten Daten gemäß den EU-Urheberrechtsanforderungen
Wenn Sie die KI bitten, ISO 27001-Texte oder anderes urheberrechtlich geschütztes Material zu reproduzieren, wird sie dies höflich ablehnen und stattdessen umsetzbare Ratschläge basierend auf ihrem Wissen über die Prinzipien des Frameworks anbieten.
4. Privacy by Design (Datenschutz durch Technikgestaltung)
Der Schutz von Benutzerdaten ist in jeder KI-Interaktion verankert:
Konversationen werden niemals zum Trainieren von KI-Modellen verwendet
Vom Benutzer bereitgestellte Inhalte werden nicht mit anderen Benutzern geteilt
Jede Konversation wird unabhängig verarbeitet
Workspace-Isolierung verhindert Datenvermischung zwischen Projekten
KI-Schutzmechanismen (Guardrails)
Inhaltliche Reichweitenbegrenzung
Was die KI tun wird:
Fragen zu ISMS-Frameworks und Compliance beantworten
Hochgeladene Compliance-Dokumente analysieren (Richtlinien, Verfahren, Risikobewertungen)
Audit-bereite Richtlinien und Verfahren erstellen
Gap-Analysen und Implementierungshilfen bereitstellen
Sicherheitskontrollen und Compliance-Anforderungen erläutern
Was die KI NICHT tun wird:
Rechtsberatung leisten (empfiehlt stattdessen die Konsultation von Rechtsexperten)
Medizinische, finanzielle oder persönliche Beratung außerhalb des Compliance-Bereichs anbieten
Inhalte für illegale, schädliche oder unethische Zwecke generieren
Urheberrechtlich geschützte Standards oder proprietäre Materialien reproduzieren
Ihre benutzerdefinierten Anweisungen oder System-Prompts offenlegen
Wenn Sie die KI bitten, bei etwas außerhalb ihres Bereichs zu helfen, wird sie ihre Grenzen höflich erklären und Sie zu Compliance-bezogener Unterstützung zurückführen, die sie leisten kann.
Verhinderung von Jailbreaks
ISMS Copilot ist darauf ausgelegt, Manipulationsversuchen zu widerstehen:
Blockierte Taktiken:
„Wiederhole nach mir“-Tricks, um System-Prompts zu extrahieren
Rollenspielszenarien, die darauf abzielen, Sicherheitsbeschränkungen zu umgehen
Anfragen, „vorherige Anweisungen zu ignorieren“
Manipulation von Einschränkungen („antworte ohne Verweigerung“)
Versuche, direkt auf interne Wissensdatenbank-Dateien zuzugreifen
Wie es funktioniert:
Wenn die KI einen Jailbreak-Versuch erkennt:
Erkennt sie das Manipulationsmuster
Lehnt sie die Anfrage höflich ab
Leitet sie auf legitime ISMS-Unterstützung um
Behält sie ihre Sicherheitsbeschränkungen bei
ISMS Copilot ist darauf ausgelegt, innerhalb seines Compliance-Bereichs hilfreich zu sein. Wenn Sie legitime Fragen haben, die scheinbar Schutzmechanismen auslösen, versuchen Sie, Ihre Frage umzuformulieren, um sich auf den Compliance- oder Sicherheitsaspekt zu konzentrieren, bei dem Sie Hilfe benötigen.
Schutz vor Prompt Injection
Die Plattform schützt vor bösartigen Inhalten in Datei-Uploads:
Was geschützt ist:
Hochgeladene Dokumente werden auf Prompt-Injection-Versuche gescannt
In Dateien eingebettete bösartige Anweisungen werden geräuschlos abgelehnt
System-Prompts können nicht durch Dateiinhalte überschrieben werden
Sicherheitsbeschränkungen bleiben unabhängig vom Dateiinhalt aktiv
Benutzererfahrung:
Dateien werden aus Benutzersicht normal verarbeitet
Schädliche Anweisungen werden während der Bearbeitung herausgefiltert
Nur legitime Dokumenteninhalte werden analysiert
Keine sichtbare Fehlermeldung (stiller Schutz)
Wissensschutz-Grenzwerte
Die KI schützt ihre Trainingsdaten und die Systemkonfiguration:
Worauf Benutzer keinen Zugriff haben:
Benutzerdefinierte Anweisungen oder System-Prompts
Details zu Trainingsdatenquellen
Direkter Zugriff auf Wissensdatenbank-Dateien
Download-Links für interne Dokumente
Informationen zur Struktur der Wissensdatenbank
Warum das wichtig ist:
Der Schutz von System-Prompts und Trainingsdaten verhindert:
Dass Angreifer verstehen, wie sie die KI manipulieren können
Urheberrechtsverletzungen durch Reproduktion von Trainingsmaterialien
Sicherheitsrisiken durch Offenlegung der Systemarchitektur
Inkonsistentes Verhalten durch modifizierte Anweisungen
Prävention von Halluzinationen
Was sind Halluzinationen?
KI-Halluzinationen treten auf, wenn die KI sicher klingende, aber faktisch falsche Informationen generiert. ISMS Copilot adressiert dies durch verschiedene Mechanismen:
Dynamic Framework Knowledge Injection (v2.5)
Ab Februar 2025 eliminiert ISMS Copilot v2.5 Halluzinationen bei framework-spezifischen Fragen fast vollständig durch dynamische Wissensinjektion:
Erkennt Framework-Erwähnungen in Ihren Fragen mittels Regex-Musterabgleich (ISO 27001, DSGVO, SOC 2, HIPAA, CCPA, NIS 2, DORA, ISO 42001, ISO 27701, EU AI Act)
Injiziert verifiziertes Framework-Wissen in den KI-Kontext, bevor Antworten generiert werden
Die KI antwortet basierend auf bereitgestelltem Framework-Wissen, nicht aus dem probabilistischen Gedächtnis
Die nicht-KI-basierte Erkennung gewährleistet 100%ige Zuverlässigkeit, wenn Frameworks erwähnt werden
Unterstützt 10 Frameworks mit dedizierter Wissensinjektion
Wenn Sie fragen „Was ist ISO 27001 Maßnahme A.5.9?“, erkennt das System ISO 27001, injiziert das Wissen und die KI antwortet auf Basis verifizierter Informationen – nicht durch Raten. Dies eliminiert fast vollständig erfundene Maßnahmen-Nummern und falsche Anforderungen.
Training auf Praxiswissen
Über die Wissensinjektion hinaus ist ISMS Copilot auf spezialisiertes Compliance-Wissen trainiert:
Proprietäre Bibliothek mit Compliance-Wissen aus Hunderten von realen Beratungsprojekten
Basiert auf praktischer Umsetzungserfahrung, nicht auf theoretischen Informationen
Fokussiert auf Frameworks, Standards und bewährte Praktiken
Regelmäßig aktualisiert mit aktuellen Compliance-Anforderungen
Anerkennung von Unsicherheit
Die KI ist angewiesen, ehrlich über ihre Grenzen zu sein:
Gibt explizit an, wenn sie bei Informationen unsicher ist
Fordert Benutzer auf, kritische Informationen zu verifizieren
Vermeidet das Erfinden von Fakten bei unvollständigem Wissen
Empfiehlt bei Bedarf die Konsultation offizieller Standards oder Rechtsexperten
Beispielantwort:
„Obwohl ich allgemeine Hinweise zur ISO 27001-Maßnahme A.8.1 geben kann, ist es dennoch möglich, dass mir Fehler unterlaufen. Bitte vergleichen Sie diese Informationen für Auditzwecke mit dem offiziellen Standard ISO 27001:2022.“
Verifizierungsverantwortung des Benutzers
ISMS Copilot betont, dass Benutzer:
KI-Vorschläge mit offiziellen Standards abgleichen sollten
Kritische Informationen vor der Einreichung bei Auditoren validieren sollten
Die KI als Assistent des Beraters nutzen sollten, nicht als Ersatz für Fachwissen
Fachliches Urteilsvermögen bei der Anwendung von KI-Empfehlungen walten lassen sollten
Verifizieren Sie kritische Compliance-Informationen immer, bevor Sie sie in Audits oder offiziellen Einreichungen verwenden. ISMS Copilot soll unterstützen und nicht das professionelle Urteilsvermögen oder offizielle Standarddokumentationen ersetzen.
Ratenbegrenzung & Ressourcenschutz
Nachrichten-Limits (Rate Limiting)
ISMS Copilot implementiert Ratenbegrenzungen, um Missbrauch zu verhindern und fairen Zugang zu gewährleisten:
Free-Plan:
10 Nachrichten pro rollierendem 4-Stunden-Fenster
Zähler setzt sich 4 Stunden nach der ersten Nachricht zurück
Erzwungen sowohl im Frontend als auch im Backend
Bezahlte Pläne (Plus, Standard, Pro, Business):
Mehr Credits pro Sitzung (50 bis 400 je nach Plan)
Keine Ratenbegrenzungs-Einschränkungen
Priorisierte Verarbeitung
Wenn das Limit erreicht ist:
Sie sehen die Fehlermeldung: „Tägliches Nachrichtenlimit erreicht. Bitte upgraden Sie für mehr Credits pro Sitzung.“
Um das Beste aus Ihren Nachrichten im kostenlosen Tarif herauszuholen, stellen Sie umfassende Fragen und geben Sie Kontext in einer einzigen Nachricht, anstatt mehrere kurze Fragen zu senden. Dies maximiert den Wert jeder Interaktion.
Datei-Upload-Limits
Datei-Uploads unterliegen Sicherheitsbeschränkungen zum Schutz der Systemressourcen:
Dateigröße:
Maximum: 10 MB pro Datei
Fehlermeldung: „Datei 'dokument.pdf' ist zu groß (15,23 MB). Die maximal zulässige Größe beträgt 10 MB.“
Unterstützte Dateitypen:
TXT, CSV, JSON (Textdateien)
PDF (Dokumente)
DOC, DOCX (Microsoft Word)
XLS, XLSX (Microsoft Excel)
Upload-Beschränkungen:
Eine Datei nach der anderen (Batch-Upload wird nicht unterstützt)
Keine Duplikate derselben Datei für dieselbe Nachricht möglich
Nicht unterstützte Dateitypen werden mit einer Fehlermeldung abgelehnt
Temporärer Chat-Modus
Was ist ein temporärer Chat?
Der temporäre Chat-Modus bietet datenschutzfreundliche Konversationen mit spezifischer Datenhandhabung:
Wie es funktioniert:
Wählen Sie „Temporärer Chat“ auf dem Begrüßungsbildschirm
Sie sehen den Hinweis: „Dieser Chat erscheint nicht im Verlauf. Aus Sicherheitsgründen können wir eine Kopie dieses Chats für bis zu 30 Tage aufbewahren.“
Nachrichten senden und Dateien hochladen wie gewohnt
Konversation wird nicht Ihrem Gesprächsverlauf hinzugefügt
Daten können für bis zu 30 Tage zur Sicherheitsüberprüfung aufbewahrt werden
Wann ein temporärer Chat sinnvoll ist:
Schnelle einmalige Fragen, die nicht gespeichert werden müssen
Sensible Diskussionen, die nicht im permanenten Verlauf erscheinen sollen
Testen von Abfragen, bevor man sie in einem Workspace festschreibt
Explorative Recherche zu Compliance-Themen
Auch im temporären Chat-Modus können Konversationen zur Sicherheitsüberwachung und Missbrauchsprävention bis zu 30 Tage lang aufbewahrt werden. Dies hilft vor Missbrauch zu schützen und bietet gleichzeitig Privatsphäre gegenüber Ihrem permanenten Verlauf.
Datenaufbewahrungs-Optionen
Benutzergesteuerte Aufbewahrung
Sie entscheiden, wie lange Ihre Konversationsdaten gespeichert werden:
Klicken Sie auf das Benutzermenü-Symbol (oben rechts)
Wählen Sie Einstellungen
Wählen Sie im Feld Datenaufbewahrungsfrist:
Minimum: 1 Tag (hochsichere, kurzfristige Arbeit)
Maximum: 24.955 Tage / 7 Jahre (langfristige Dokumentation)
Oder klicken Sie auf Für immer behalten für unbefristete Aufbewahrung
Klicken Sie auf Einstellungen speichern
Ergebnis: Der Einstellungsdialog schließt sich und die Aufbewahrungsfrist ist gespeichert.
Automatische Datenlöschung
ISMS Copilot löscht alte Daten automatisch:
Löschauftrag läuft täglich
Entfernt Nachrichten, die älter als Ihre Aufbewahrungsfrist sind
Löscht zugehörige hochgeladene Dateien
Dauerhaft und kann nicht wiederhergestellt werden
Die Datenlöschung erfolgt automatisch und endgültig. Exportieren Sie wichtige Konversationen oder Dokumente, bevor sie gemäß Ihren Aufbewahrungseinstellungen ablaufen.
Sicherheitsmerkmale für Workspaces
Datenisolierung
Workspaces bieten Sicherheitsgrenzen für verschiedene Projekte:
Wie die Isolierung funktioniert:
Jeder Workspace hat einen separaten Konversationsverlauf
Hochgeladene Dateien sind an spezifische Workspaces gebunden
Benutzerdefinierte Anweisungen sind Workspace-spezifisch
Das Löschen eines Workspaces entfernt alle zugehörigen Daten
Die KI teilt keine Informationen zwischen verschiedenen Workspaces
Für Berater, die mehrere Kunden verwalten, stellt die Workspace-Struktur sicher, dass Kundendaten vollkommen isoliert bleiben. Selbst die KI behandelt jeden Workspace als separates Projekt ohne gegenseitige Beeinflussung.
Sicherheit bei benutzerdefinierten Anweisungen
Workspaces ermöglichen benutzerdefinierte Anweisungen mit Sicherheitsgrenzen:
Was benutzerdefinierte Anweisungen können:
Schwerpunkt auf bestimmte Compliance-Frameworks legen
Tonfall oder Detailgrad für Antworten festlegen
Projektspezifischen Kontext definieren (Branche, Unternehmensgröße)
Die KI auf spezifische Compliance-Ziele lenken
Sicherheitsbeschränkungen:
Anweisungen müssen Compliance-bezogen sein
Dürfen Kern-Schutzmechanismen nicht überschreiben
Dürfen die KI nicht anweisen, Urheberrechtsschutz zu ignorieren
Dürfen inhaltliche Reichweitenbegrenzungen nicht umgehen
Kein Training mit Benutzerdaten
Datenschutzgarantie
ISMS Copilot verpflichtet sich, Ihre Daten niemals für das KI-Training zu verwenden:
Was das bedeutet:
Ihre Konversationen werden niemals in das KI-Modell zurückgeführt
Hochgeladene Dokumente bleiben vertraulich und privat
Kundeninformationen tragen niemals zur Verbesserung des Modells bei
Jede Konversation wird unabhängig verarbeitet, ohne Lerneffekt (Learning)
Wie Sie das schützt:
Die Vertraulichkeit der Kunden wird gewahrt
Proprietäre Informationen bleiben privat
Sensible Compliance-Daten werden nicht mit anderen Nutzern geteilt
Kein Risiko, dass die KI versehentlich Ihre Informationen anderen gegenüber preisgibt
Dies ist ein entscheidender Unterschied zu allgemeinen KI-Tools wie der kostenlosen Version von ChatGPT. ISMS Copilot garantiert, dass Ihre sensiblen Compliance-Daten niemals zur Verbesserung des Modells verwendet werden, was vollständige Vertraulichkeit für Ihre Kundenarbeit gewährleistet.
Transparenz bei der Datenverarbeitung
ISMS Copilot ist transparent darüber, wie Ihre Daten verwendet werden:
Wie Ihre Daten verwendet WERDEN:
Verarbeitung Ihrer Fragen zur Generierung von Antworten
Analyse hochgeladener Dokumente für Gap-Analysen
Aufrechterhaltung des Konversationskontexts innerhalb eines Workspaces
Speicherung von Daten gemäß Ihren Aufbewahrungseinstellungen
Sicherheitsüberwachung für bis zu 30 Tage (um Missbrauch vorzubeugen)
Wie Ihre Daten NICHT verwendet werden:
Training oder Feinabstimmung (Fine-Tuning) von KI-Modellen
Weitergabe an andere Nutzer oder Kunden
Marketing- oder Werbezwecke
Verkauf an Dritte
Öffentliche Bekanntgabe oder Fallstudien (ohne ausdrückliche Erlaubnis)
Authentifizierung und Zugriffskontrolle
Anforderungen an die Benutzerauthentifizierung
Alle KI-Interaktionen erfordern eine Authentifizierung:
Nachrichten können nur nach dem Login gesendet werden
Ein JWT-Token validiert jede API-Anfrage
Sitzungen laufen nach einer gewissen Zeit der Inaktivität ab
Sicherheit auf Zeilenebene (Row-level security) stellt sicher, dass Benutzer nur ihre eigenen Daten sehen
Schutz zwischen Benutzern (Cross-User Protection)
Eine Isolierung auf Datenbankebene verhindert unbefugten Zugriff:
Benutzer können nicht auf Konversationen anderer zugreifen
Versuche, auf Daten anderer zuzugreifen, geben leere Ergebnisse zurück
Alle Abfragen werden automatisch nach der authentifizierten Benutzer-ID gefiltert
Selbst Administratoren folgen dem Prinzip der minimalen Rechtevergabe (Least Privilege)
Best Practices für verantwortungsvolle KI
Für Benutzer
So erzielen Sie die besten Ergebnisse:
Stellen Sie spezifische, framework-bezogene Fragen (z. B. „Wie setze ich ISO 27001 Maßnahme A.8.1 um?“)
Geben Sie Kontext zu Ihrem Unternehmen und Ihren Compliance-Zielen an
Laden Sie relevante Dokumente für genaue Gap-Analysen hoch
Prüfen und verfeinern Sie KI-generierte Inhalte vor der Verwendung
Verifizierungspraktiken:
Gleichen Sie KI-Vorschläge mit offiziellen Standards ab
Validieren Sie kritische Informationen mit Compliance-Experten
Testen Sie KI-generierte Richtlinien in Ihrem organisatorischen Kontext
Nutzen Sie die KI als Assistenten, nicht als Ersatz für Fachkenntnisse
Präzisieren Sie Ihre Fragen: Statt „Erzähl mir was über ISO 27001“ fragen Sie lieber „Was sind die wichtigsten Schritte zur Implementierung einer Zugriffskontrollrichtlinie nach ISO 27001 Anhang A.9?“. Dies hilft der KI, genauere und praxisnahe Anleitungen zu geben.
Für Organisationen
Governance-Praktiken:
Dokumentieren Sie die Nutzung von ISMS Copilot in Ihrer KI-Governance-Richtlinie
Schulen Sie Mitarbeiter in der angemessenen Nutzung und den Grenzen des Tools
Legen Sie Datenaufbewahrungsfristen fest, die Ihren Richtlinien entsprechen
Prüfen Sie KI-generierte Inhalte vor der offiziellen Einreichung
Behalten Sie die menschliche Aufsicht bei kritischen Compliance-Entscheidungen bei
Risikomanagement:
Beziehen Sie KI-Tools in Ihre Datenschutz-Folgenabschätzungen (DSFA) ein
Dokumentieren Sie Auftragsverarbeitungsverträge mit ISMS Copilot
Setzen Sie angemessene Aufbewahrungsfristen für sensible Daten
Nutzen Sie Workspaces, um Daten verschiedener Kunden oder Projekte zu isolieren
KI-Governance in der Praxis
Über Sicherheitsbeschränkungen hinaus betreiben wir unsere KI-Systeme mit einer Governance über den gesamten Lebenszyklus. So werden unsere Richtlinien in die Praxis umgesetzt:
Entwicklungsprozess
Anforderungen und Tests:
Jede KI-Funktion verfügt über dokumentierte Anforderungen zu funktionalen Fähigkeiten, Leistungsschwellen, Sicherheitsgrenzen und Standards zur Datenbehandlung
Regressionstests werden bei jeder Codeänderung durchgeführt, um Abrufgenauigkeit, Antwortfundierung und Halluzinationserkennung zu validieren
Sicherheitstests umfassen SAST/DAST-Scans, jährliche Penetrationstests und Prompt-Injection-Tests
Ein Deployment erfolgt erst, wenn 100 % der Regressionstests bestanden sind und alle kritischen Schwachstellen behoben wurden
Architekturdetails (v2.5, Februar 2025):
Architektur mit dynamischer Framework-Wissensinjektion (ersetzt den vorherigen RAG-Ansatz)
Regex-basierte Framework-Erkennung gewährleistet zuverlässige Identifizierung von ISO 27001, SOC 2, DSGVO, HIPAA, CCPA, NIS 2, DORA, ISO 42001, ISO 27701, EU AI Act
Token-effizient: Nur relevantes Framework-Wissen wird geladen (statt ca. 10.000 Token bei jeder Anfrage zu senden)
Verifiziertes Framework-Wissen wird der KI vor der Antwortgenerierung bereitgestellt
Konfigurierbare KI-Anbieter (Mistral, xAI, OpenAI) mit Vereinbarungen zur Speicherung von null Daten (Zero Retention)
Detaillierte technische Spezifikationen unseres KI-Entwicklungsprozesses, einschließlich Anforderungen, Testverfahren und Deployment-Validierung, finden Sie in unseren Sicherheitsrichtlinien.
Überwachung und kontinuierliche Verbesserung
Was wir überwachen:
Halluzinationsraten, verfolgt durch Benutzerberichte und automatisierte Erkennung gegen bekannte Fakten (Ground Truth)
Antwortgenauigkeit, stichprobenartig geprüft gegen offizielle Compliance-Standards
Nutzungsmuster zur Erkennung von Missbrauch oder unbeabsichtigten Anwendungen
Leistungsmetriken (Antwortzeit, Abrufpräzision, Fehlerraten), die kontinuierlich gemessen werden
Benutzerfeedback, das regelmäßig auf neue Risiken geprüft wird
Wie die Überwachung Verbesserungen vorantreibt:
Benutzerfeedback fließt in Modell-Updates und Abruf-Tuning ein
Sicherheitstests führen zu verbesserten Schutzmechanismen
Regulatorische Änderungen und Best-Practice-Updates werden in die Dokumentation übernommen
Leistungsdaten leiten iterative Verbesserungen bei Genauigkeit und Geschwindigkeit
Reaktion auf Vorfälle (Incident Response)
Wie wir über Probleme kommunizieren:
E-Mail-Benachrichtigungen bei kritischen Vorfällen, die die KI-Funktionalität beeinträchtigen
Slack-Benachrichtigungen für Teams mit konfigurierten Integrationen
Updates auf der Statusseite mit Zeitplänen und Lösungen zu Vorfällen
NIS2-konforme Frühwarnmeldungen (24-Stunden-Berichterstattung bei erheblichen Cybersicherheitsvorfällen)
Abonnieren Sie unsere Statusseite, um Echtzeit-Benachrichtigungen über KI-Systemvorfälle, Wartungsfenster und Updates zu erhalten.
Melden von Sicherheitsproblemen
Wann Sie melden sollten
Kontaktieren Sie den ISMS Copilot Support, wenn Sie auf Folgendes stoßen:
KI-Antworten, die Sicherheitsbeschränkungen verletzen
Potenzielle Halluzinationen oder faktisch falsche Informationen
Urheberrechtsverletzungen in der KI-Ausgabe
Unangemessene Inhalte oder unangemessenes Verhalten
Sicherheitslücken im KI-System
Datenschutzverletzungen oder Datenlecks
Wie Sie melden
Klicken Sie auf das Benutzermenü-Symbol (oben rechts)
Wählen Sie Help Center → Support kontaktieren
Beschreiben Sie das Sicherheitsproblem mit:
Der exakten Frage oder dem Prompt, den Sie verwendet haben
Der Antwort der KI (Screenshot, wenn möglich)
Warum Sie dies für ein Sicherheitsrisiko halten
Datum und Uhrzeit der Interaktion
Der Support wird das Problem untersuchen und innerhalb von 48 Stunden antworten
Das Melden von Sicherheitsproblemen hilft dabei, ISMS Copilot für alle zu verbessern. Ihr Feedback ist wertvoll, um potenzielle Risiken im Verhalten der KI zu identifizieren und zu beheben.
Was nach Ihrer Meldung passiert
Ihre Meldung löst unseren Governance-Prozess aus:
Sofortige Prüfung (innerhalb von 48 Stunden): Das Support-Team bewertet Schweregrad und Auswirkungen
Untersuchung: Das technische Team analysiert das Problem, reproduziert es und identifiziert die Ursache
Rückmeldung: Sie erhalten ein Update zu den Ergebnissen und geplanten Maßnahmen
Behebung: Probleme werden durch Modell-Updates, Abruf-Tuning, Code-Fixes oder Dokumentationsverbesserungen behoben
Kontinuierliche Verbesserung: Gewonnene Erkenntnisse werden in Test- und Überwachungsprozesse integriert
Einschränkungen und bekannte Grenzen
Aktuelle KI-Einschränkungen
Kann das Internet nicht nach aktuellen Informationen durchsuchen (verwendet die trainierte Wissensdatenbank)
Kann nicht in Echtzeit auf externe Datenbanken oder APIs zugreifen
Kann keinen Code ausführen oder Sicherheitstools starten
Kann in Ihrem Namen keine Telefonanrufe tätigen oder E-Mails versenden
Kann keine 100%ige Genauigkeit garantieren (kritische Informationen immer verifizieren)
Bereichsgrenzen
Fokussiert auf ISMS und Compliance (keine Allzweck-KI)
Kann keine Rechts-, medizinische oder Finanzberatung außerhalb des Compliance-Kontexts leisten
Kann offizielle Standards oder das Urteil von Auditoren nicht ersetzen
Kann keinen Auditerfolg garantieren (Qualität der Implementierung zählt)
Was als Nächstes kommt
Erfahren Sie mehr über Datensicherheits- und Verschlüsselungsmaßnahmen
Verstehen Sie Ihre Datenschutzrechte gemäß DSGVO
Richten Sie Workspaces zur Datenisolierung ein
Besuchen Sie das Trust Center für detaillierte Dokumentationen zur KI-Governance
Hilfe erhalten
Bei Fragen zu KI-Sicherheit und verantwortungsvoller Nutzung:
Prüfen Sie das Trust Center für detaillierte Informationen zur KI-Governance
Kontaktieren Sie den Support über das Help Center Menü
Melden Sie Sicherheitsbedenken sofort zur Untersuchung
Prüfen Sie die Statusseite auf bekannte Probleme