Übersicht über KI-Sicherheit und verantwortungsvolle Nutzung
Übersicht
ISMS Copilot implementiert umfassende KI-Sicherheitsmaßnahmen, um eine zuverlässige, vertrauenswürdige und verantwortungsvolle KI-Unterstützung für Compliance-Experten zu gewährleisten. Dieser Artikel erläutert die Schutzmechanismen, Sicherheitsbeschränkungen und Praktiken für verantwortungsvolle KI, die in die Plattform integriert sind.
Für wen dieser Artikel ist
Dieser Artikel richtet sich an:
Compliance-Experten, die KI-Sicherheitsmaßnahmen bewerten
Risikomanager, die KI-Governance-Kontrollen prüfen
Sicherheitsteams, die besorgt über KI-Missbrauch sind
Alle, die verstehen möchten, wie ISMS Copilot eine verantwortungsvolle KI-Nutzung gewährleistet
Prinzipien der KI-Sicherheit
Das KI-Sicherheits-Framework von ISMS Copilot basiert auf vier Kernprinzipien:
1. Zweckbindung
Der KI-Assistent wurde ausschließlich für die Arbeit im Bereich Informationssicherheit und Compliance entwickelt:
Fokus auf ISMS-Frameworks (ISO 27001, SOC 2, DSGVO, NIST usw.)
Leitet themenfremde Fragen höflich auf Compliance-bezogene Themen um
Lehnt Anfragen zu schädlichen, illegalen oder unethischen Aktivitäten ab
Bleibt innerhalb der Grenzen der Unterstützung bei der Compliance-Beratung
Durch die Beschränkung des Umfangs der KI auf Compliance und Sicherheit reduziert ISMS Copilot das Risiko eines Missbrauchs und stellt Fachwissen in seinem spezialisierten Bereich sicher, anstatt zu versuchen, ein Allzweck-Assistent zu sein.
2. Transparenz und Ehrlichkeit
Der KI-Assistent erkennt seine Grenzen offen an:
Weist bei Bedarf explizit auf Unsicherheiten hin
Fordert Benutzer auf, wichtige Informationen zu verifizieren
Gibt zu, wenn er etwas nicht weiß, anstatt zu raten
Erklärt klar, was er tun kann und was nicht
3. Schutz von Urheberrecht und geistigem Eigentum
ISMS Copilot respektiert geistige Eigentumsrechte:
Wird keine urheberrechtlich geschützten ISO-Standards oder proprietäre Inhalte reproduzieren
Verweist Benutzer auf den Kauf offizieller Standards bei autorisierten Quellen
Bietet Orientierungshilfe basierend auf Framework-Prinzipien, ohne Texte zu kopieren
Trainiert auf rechtmäßig bezogenen, anonymisierten Daten gemäß den EU-Urheberrechtsanforderungen
Wenn Sie die KI bitten, ISO 27001-Texte oder anderes urheberrechtlich geschütztes Material zu reproduzieren, wird sie dies höflich ablehnen und stattdessen handlungsorientierte Anleitung basierend auf ihrem Wissen über die Prinzipien des Frameworks anbieten.
4. Privacy by Design (Datenschutz durch Technikgestaltung)
Der Schutz von Nutzerdaten ist in jeder KI-Interaktion verankert:
Konversationen werden niemals zum Training von KI-Modellen verwendet
Vom Benutzer bereitgestellte Inhalte werden nicht mit anderen Benutzern geteilt
Jede Konversation wird unabhängig verarbeitet
Workspace-Isolierung verhindert Datenvermischung zwischen Projekten
KI-Sicherheitsschranken (Guardrails)
Guardrails für den Inhaltsumfang
Was die KI tun wird:
Fragen zu ISMS-Frameworks und Compliance beantworten
Hochgeladene Compliance-Dokumente analysieren (Richtlinien, Verfahren, Risikobewertungen)
Audit-bereite Richtlinien und Verfahren erstellen
Gap-Analysen und Implementierungshilfen bereitstellen
Sicherheitskontrollen und Compliance-Anforderungen erläutern
Was die KI NICHT tun wird:
Rechtsberatung leisten (empfiehlt stattdessen die Konsultation von Rechtsexperten)
Medizinische, finanzielle oder persönliche Beratung außerhalb des Compliance-Bereichs anbieten
Inhalte für illegale, schädliche oder unethische Zwecke generieren
Urheberrechtlich geschützte Standards oder proprietäre Materialien reproduzieren
Ihre benutzerdefinierten Anweisungen (Custom Instructions) oder System-Prompts offenlegen
Wenn Sie die KI um Hilfe bei etwas bitten, das außerhalb ihres Bereichs liegt, wird sie ihre Einschränkungen höflich erklären und Sie auf die Compliance-bezogene Unterstützung verweisen, die sie leisten kann.
Prävention von Jailbreaks
ISMS Copilot ist darauf ausgelegt, Manipulationsversuchen zu widerstehen:
Blockierte Taktiken:
"Wiederhole nach mir"-Tricks, um System-Prompts zu extrahieren
Rollenspielszenarien, die darauf ausgelegt sind, Sicherheitsbeschränkungen zu umgehen
Anfragen, "vorherige Anweisungen zu ignorieren"
Manipulation von Beschränkungen ("antworte ohne Ablehnungsreaktionen")
Versuche, direkt auf Dateien der internen Wissensdatenbank zuzugreifen
Wie es funktioniert:
Wenn die KI einen Jailbreak-Versuch erkennt:
Erkennt sie das Manipulationsmuster
Lehnt sie die Anfrage höflich ab
Leitet sie auf legitime ISMS-Unterstützung um
Behält sie ihre Sicherheitsbeschränkungen bei
ISMS Copilot ist darauf ausgelegt, innerhalb seines Compliance-Bereichs hilfreich zu sein. Wenn Sie legitime Fragen haben, die Sicherheitsvorkehrungen auszulösen scheinen, versuchen Sie, Ihre Frage umzuformulieren und sich auf den Compliance- oder Sicherheitsaspekt zu konzentrieren, bei dem Sie Hilfe benötigen.
Schutz vor Prompt-Injection
Die Plattform schützt vor bösartigen Inhalten in Datei-Uploads:
Was geschützt ist:
Hochgeladene Dokumente werden auf Prompt-Injection-Versuche gescannt
In Dateien eingebettete bösartige Anweisungen werden stillschweigend abgelehnt
System-Prompts können nicht durch Dateiinhalte überschrieben werden
Sicherheitsbeschränkungen bleiben unabhängig vom Dateiinhalt aktiv
Benutzererfahrung:
Dateien werden aus Benutzersicht normal verarbeitet
Schädliche Anweisungen werden während der Verarbeitung herausgefiltert
Nur legitime Dokumenteninhalte werden analysiert
Keine sichtbare Fehlermeldung (stiller Schutz)
Wissensschutz-Guardrails
Die KI schützt ihre Trainingsdaten und die Systemkonfiguration:
Worauf Benutzer keinen Zugriff haben:
Benutzerdefinierte Anweisungen oder System-Prompts
Details zu den Quellen der Trainingsdaten
Direkter Zugriff auf Dateien der Wissensdatenbank
Download-Links für interne Dokumente
Informationen über die Struktur der Wissensdatenbank
Warum das wichtig ist:
Der Schutz von System-Prompts und Trainingsdaten verhindert:
Dass Angreifer verstehen, wie sie die KI manipulieren können
Urheberrechtsverletzungen durch Reproduktion von Trainingsmaterialien
Sicherheitsrisiken durch Offenlegung der Systemarchitektur
Inkonsistentes Verhalten durch modifizierte Anweisungen
Prävention von Halluzinationen
Was sind Halluzinationen?
KI-Halluzinationen treten auf, wenn die KI sicher klingende, aber faktisch falsche Informationen generiert. ISMS Copilot adressiert dies durch mehrere Mechanismen:
Dynamische Injektion von Framework-Wissen (v2.5)
Seit Februar 2025 eliminiert ISMS Copilot v2.5 Halluzinationen bei framework-spezifischen Fragen nahezu vollständig durch dynamische Wissensinjektion:
Erkennt Framework-Erwähnungen in Ihren Fragen mittels Regex-Musterabgleich (ISO 27001, DSGVO, SOC 2, HIPAA, CCPA, NIS 2, DORA, ISO 42001, ISO 27701)
Injiziert verifiziertes Framework-Wissen in den KI-Kontext, bevor Antworten generiert werden
KI antwortet basierend auf bereitgestelltem Framework-Wissen, nicht auf probabilistischem Gedächtnis
Nicht-KI-basierte Erkennung gewährleistet 100 % Zuverlässigkeit bei Erwähnung von Frameworks
Unterstützt 9 Frameworks mit dedizierter Wissensinjektion
Wenn Sie fragen „Was ist ISO 27001 Control A.5.9?“, erkennt das System ISO 27001, injiziert das Wissen und die KI antwortet auf Basis verifizierter Informationen – ohne Raten. Dies eliminiert fast vollständig erfundene Kontrollnummern und falsche Anforderungen.
Training auf Praxiswissen
Zusätzlich zur Wissensinjektion ist ISMS Copilot auf spezialisiertes Compliance-Wissen trainiert:
Propriitäre Bibliothek mit Compliance-Wissen aus Hunderten von realen Beratungsprojekten
Basierend auf praktischer Implementierungserfahrung, nicht auf theoretischen Informationen
Fokus auf Frameworks, Standards und bewährte Praktiken
Regelmäßig aktualisiert mit aktuellen Compliance-Anforderungen
Eingeständnis von Unsicherheit
Die KI ist angewiesen, ehrlich über Einschränkungen zu sein:
Gibt explizit an, wenn sie sich bei Informationen unsicher ist
Fordert Benutzer auf, kritische Informationen zu verifizieren
Vermeidet das Erfinden von Fakten bei unvollständigem Wissen
Empfiehlt bei Bedarf die Konsultation offizieller Standards oder Rechtsexperten
Beispielantwort:
"Obwohl ich allgemeine Hinweise zur ISO 27001-Kontrolle A.8.1 geben kann, ist es dennoch möglich, dass mir Fehler unterlaufen. Bitte verifizieren Sie diese Informationen für Audit-Zwecke mit der offiziellen Norm ISO 27001:2022."
Verantwortung des Benutzers zur Verifizierung
ISMS Copilot betont, dass Benutzer Folgendes tun sollten:
KI-Vorschläge mit offiziellen Standards abgleichen
Kritische Informationen vor der Einreichung bei Auditoren validieren
Die KI als Assistent des Beraters nutzen, nicht als Ersatz für Fachwissen
Professionelles Urteilsvermögen bei der Anwendung von KI-Empfehlungen walten lassen
Verifizieren Sie kritische Compliance-Informationen immer, bevor Sie sie in Audits oder offiziellen Einreichungen verwenden. ISMS Copilot ist darauf ausgelegt, das fachliche Urteilsvermögen und offizielle Standarddokumentationen zu unterstützen, nicht zu ersetzen.
Rate Limiting & Ressourcenschutz
Nachrichtenlimits (Rate Limits)
ISMS Copilot implementiert Rate Limiting, um Missbrauch zu verhindern und fairen Zugang zu gewährleisten:
Free Plan:
10 Nachrichten pro rollierendem 4-Stunden-Fenster
Zähler setzt sich 4 Stunden nach der ersten Nachricht zurück
Wird sowohl im Frontend als auch im Backend erzwungen
Premium Plan:
Unbegrenzte Nachrichten
Keine Rate-Limiting-Beschränkungen
Bevorzugte Verarbeitung
Wenn das Limit erreicht ist:
Sie sehen die Fehlermeldung: "Tägliches Nachrichtenlimit erreicht. Bitte upgraden Sie auf Premium für unbegrenzte Nachrichten."
Um das Beste aus Ihren Nachrichten im kostenlosen Kontingent herauszuholen, stellen Sie umfassende Fragen und geben Sie Kontext in einer einzigen Nachricht an, anstatt mehrere kurze Fragen zu senden. Dies maximiert den Wert jeder Interaktion.
Datei-Upload-Limits
Datei-Uploads unterliegen Sicherheitsbeschränkungen zum Schutz der Systemressourcen:
Dateigröße:
Maximum: 10 MB pro Datei
Fehlermeldung: "Die Datei 'dokument.pdf' ist zu groß (15,23MB). Die maximal zulässige Größe beträgt 10MB."
Unterstützte Dateitypen:
TXT, CSV, JSON (Textdateien)
PDF (Dokumente)
DOC, DOCX (Microsoft Word)
XLS, XLSX (Microsoft Excel)
Upload-Beschränkungen:
Eine Datei nach der anderen (Batch-Upload wird nicht unterstützt)
Kein Hochladen doppelter Dateien für dieselbe Nachricht möglich
Nicht unterstützte Dateitypen werden mit einer Fehlermeldung abgelehnt
Temporärer Chat-Modus
Was ist ein temporärer Chat?
Der temporäre Chat-Modus bietet datenschutzfreundliche Konversationen mit spezifischer Datenhandhabung:
Wie es funktioniert:
Wählen Sie "Temporärer Chat" auf dem Begrüßungsbildschirm
Sie sehen den Hinweis: "Dieser Chat wird nicht im Verlauf angezeigt. Aus Sicherheitsgründen können wir eine Kopie dieses Chats für bis zu 30 Tage aufbewahren."
Nachrichten senden und Dateien hochladen wie gewohnt
Die Konversation wird nicht zu Ihrem Konversationsverlauf hinzugefügt
Daten können für bis zu 30 Tage zur Sicherheitsüberprüfung aufbewahrt werden
Wann ein temporärer Chat sinnvoll ist:
Schnelle Einzelfragen, die nicht gespeichert werden müssen
Sensible Diskussionen, die Sie nicht im permanenten Verlauf haben möchten
Anfragen testen, bevor man sich auf einen Workspace festlegt
Explorative Recherche zu Compliance-Themen
Selbst im temporären Chat-Modus können Konversationen für bis zu 30 Tage zur Sicherheitsüberwachung und Missbrauchsprävention aufbewahrt werden. Dies hilft vor Missbrauch zu schützen, während es gleichzeitig Privatsphäre gegenüber Ihrem permanenten Verlauf bietet.
Steuerung der Datenaufbewahrung
Benutzergesteuerte Aufbewahrung
Sie entscheiden, wie lange Ihre Konversationsdaten gespeichert werden:
Klicken Sie auf das Benutzermenü-Symbol (oben rechts)
Wählen Sie Einstellungen
Wählen Sie im Feld Datenaufbewahrungszeitraum:
Minimum: 1 Tag (hochsichere, kurzfristige Arbeit)
Maximum: 24.955 Tage / 7 Jahre (langfristige Dokumentation)
Oder klicken Sie auf Für immer behalten für unbefristete Aufbewahrung
Klicken Sie auf Einstellungen speichern
Erwartetes Ergebnis: Der Einstellungsdialog schließt sich und der Aufbewahrungszeitraum wird gespeichert.
Automatische Datenlöschung
ISMS Copilot löscht alte Daten automatisch:
Löschauftrag läuft täglich
Entfernt Nachrichten, die älter als Ihr Aufbewahrungszeitraum sind
Löscht zugehörige hochgeladene Dateien
Permanent und kann nicht wiederhergestellt werden
Die Datenlöschung erfolgt automatisch und dauerhaft. Exportieren Sie wichtige Konversationen oder Dokumente, bevor sie gemäß Ihren Aufbewahrungseinstellungen ablaufen.
Sicherheitsfunktionen für Workspaces
Datenisolierung
Workspaces bieten Sicherheitsgrenzen für verschiedene Projekte:
Wie die Isolierung funktioniert:
Jeder Workspace hat einen separaten Konversationsverlauf
Hochgeladene Dateien sind an spezifische Workspaces gebunden
Benutzerdefinierte Anweisungen sind Workspace-spezifisch
Das Löschen eines Workspaces entfernt alle zugehörigen Daten
Die KI teilt keine Informationen zwischen Workspaces
Für Berater, die mehrere Kunden verwalten, stellen Workspaces sicher, dass Kundendaten vollständig isoliert bleiben. Sogar die KI behandelt jeden Workspace als separates Projekt ohne Kreuzkontamination von Informationen.
Sicherheit bei benutzerdefinierten Anweisungen
Workspaces ermöglichen benutzerdefinierte Anweisungen (Custom Instructions) mit Sicherheitsbeschränkungen:
Was Custom Instructions tun können:
Fokus auf bestimmte Compliance-Frameworks festlegen
Tonfall oder Detailgrad für Antworten festlegen
Projektspezifischen Kontext definieren (Branche, Unternehmensgröße)
KI auf spezifische Compliance-Ziele ausrichten
Sicherheitsbeschränkungen:
Benutzerdefinierte Anweisungen müssen Compliance-bezogen sein
Können Kern-Sicherheitsvorkehrungen nicht außer Kraft setzen
Können die KI nicht anweisen, Urheberrechtsschutz zu ignorieren
Können Beschränkungen des Inhaltsumfangs nicht umgehen
Kein Training auf Benutzerdaten
Datenschutzgarantie
ISMS Copilot verpflichtet sich, Ihre Daten niemals für das KI-Training zu verwenden:
Was das bedeutet:
Ihre Konversationen werden niemals in das KI-Modell zurückgeführt
Hochgeladene Dokumente bleiben vertraulich und privat
Kundeninformationen tragen niemals zur Modellverbesserung bei
Jede Konversation wird unabhängig verarbeitet, ohne Lerneffekt
Wie Sie das schützt:
Die Vertraulichkeit von Kundendaten bleibt gewahrt
Proprietäre Informationen bleiben privat
Sensible Compliance-Daten werden nicht mit anderen Benutzern geteilt
Kein Risiko, dass die KI versehentlich Ihre Informationen anderen gegenüber offenbart
Dies ist ein entscheidender Unterschied zu allgemeinen KI-Tools wie der kostenlosen Version von ChatGPT. ISMS Copilot garantiert, dass Ihre sensiblen Compliance-Daten niemals zur Verbesserung des Modells verwendet werden, was vollständige Vertraulichkeit für Ihre Kundenarbeit sicherstellt.
Transparenz bei der Datenverarbeitung
ISMS Copilot ist transparent darüber, wie Ihre Daten genutzt werden:
Wie Ihre Daten verwendet WERDEN:
Verarbeitung Ihrer Fragen zur Generierung von Antworten
Analyse hochgeladener Dokumente für Gap-Analysen
Aufrechterhaltung des Konversationskontexts innerhalb eines Workspaces
Speicherung von Daten gemäß Ihren Aufbewahrungseinstellungen
Sicherheitsüberwachung für bis zu 30 Tage (um Missbrauch zu verhindern)
Wie Ihre Daten NICHT verwendet werden:
Training oder Feinabstimmung von KI-Modellen
Weitergabe an andere Nutzer oder Kunden
Marketing- oder Werbezwecke
Verkauf an Dritte
Öffentliche Bekanntgabe oder Fallstudien (ohne ausdrückliche Erlaubnis)
Authentifizierung & Zugriffskontrolle
Anforderungen an die Benutzerauthentifizierung
Alle KI-Interaktionen erfordern eine Authentifizierung:
Senden von Nachrichten ohne Anmeldung nicht möglich
JWT-Token validiert jede API-Anfrage
Sitzungen laufen nach einem Zeitraum der Inaktivität ab
Row-Level Security stellt sicher, dass Benutzer nur ihre eigenen Daten sehen
Schutz vor nutzerübergreifendem Zugriff
Isolierung auf Datenbankebene verhindert unbefugten Zugriff:
Benutzer können nicht auf Konversationen anderer zugreifen
Der Versuch, auf Daten eines anderen Benutzers zuzugreifen, liefert leere Ergebnisse
Alle Abfragen filtern automatisch nach der authentifizierten Benutzer-ID
Selbst Administratoren folgen dem Prinzip der geringsten Rechtevergabe
Best Practices für verantwortungsvolle KI
Für Benutzer
So erzielen Sie die besten Ergebnisse:
Stellen Sie spezifische, Framework-bezogene Fragen (z. B. „Wie implementiere ich ISO 27001-Kontrolle A.8.1?“)
Geben Sie Kontext zu Ihrer Organisation und Ihren Compliance-Zielen an
Laden Sie relevante Dokumente für genaue Gap-Analysen hoch
Überprüfen und verfeinern Sie KI-generierte Inhalte vor der Verwendung
Praktiken zur Verifizierung:
KI-Vorschläge mit offiziellen Standards abgleichen
Kritische Informationen mit Compliance-Experten validieren
KI-generierte Richtlinien im Kontext Ihrer Organisation testen
KI als Assistent nutzen, nicht als Ersatz für Fachwissen
Formulieren Sie Ihre Fragen präzise: Anstatt „Erzähl mir von ISO 27001“, fragen Sie: „Was sind die wichtigsten Schritte zur Implementierung einer Zugriffskontrollrichtlinie für ISO 27001 Anhang A.9?“ Dies hilft der KI, genauere und handlungsorientierte Anleitungen zu geben.
Für Organisationen
Governance-Praktiken:
Vermeiden Sie die Nutzung von ISMS Copilot in Ihrer KI-Governance-Richtlinie
Schulen Sie Mitarbeiter in Bezug auf angemessene Nutzung und Einschränkungen
Legen Sie Aufbewahrungsfristen fest, die mit Ihren Richtlinien übereinstimmen
Überprüfen Sie KI-generierte Inhalte vor offiziellen Einreichungen
Behalten Sie die menschliche Aufsicht bei kritischen Compliance-Entscheidungen bei
Risikomanagement:
Beziehen Sie KI-Tools in Ihre Datenschutz-Folgenabschätzungen (DSFA) ein
Dokumentieren Sie Auftragsverarbeitungsverträge mit ISMS Copilot
Legen Sie angemessene Aufbewahrungsfristen für sensible Daten fest
Nutzen Sie Workspaces, um Daten verschiedener Kunden oder Projekte zu isolieren
KI-Governance in der Praxis
Über Sicherheitsbeschränkungen hinaus betreiben wir unsere KI-Systeme mit einer Governance über den gesamten Lebenszyklus. So werden unsere Richtlinien in greifbare Praktiken umgesetzt:
Entwicklungsprozess
Anforderungen & Tests:
Jede KI-Funktion verfügt über dokumentierte Anforderungen, die funktionale Fähigkeiten, Leistungsschwellenwerte, Sicherheitsbeschränkungen und Standards für die Datenverarbeitung abdecken
Regressionstests werden bei jeder Codeänderung durchgeführt, um die Genauigkeit des Abrufs, die Fundierung der Antworten und die Erkennung von Halluzinationen zu validieren
Sicherheitstests umfassen SAST/DAST-Scans, jährliche Penetrationstests und Prompt-Injection-Tests
Kein Deployment findet statt, bevor 100 % der Regressionstests bestanden sind und alle kritischen Schwachstellen behoben wurden
Architekturdetails (v2.5, Februar 2025):
Architektur zur dynamischen Injektion von Framework-Wissen (ersetzt den bisherigen RAG-Ansatz)
Regex-basierte Framework-Erkennung gewährleistet die zuverlässige Identifizierung von ISO 27001, SOC 2, DSGVO, HIPAA, CCPA, NIS 2, DORA, ISO 42001, ISO 27701
Token-effizient: Nur relevantes Framework-Wissen wird geladen (statt ca. 10.000 Token bei jeder Anfrage zu senden)
Verifiziertes Framework-Wissen wird der KI vor der Antwortgenerierung zur Verfügung gestellt
Konfigurierbare KI-Anbieter (Mistral, xAI, OpenAI) mit Verträgen zur Null-Datenaufbewahrung
In unseren Sicherheitsrichtlinien finden Sie detaillierte technische Spezifikationen unseres KI-Entwicklungsprozesses, einschließlich Anforderungen, Testverfahren und Deployment-Validierung.
Überwachung & kontinuierliche Verbesserung
Was wir überwachen:
Halluzinationsraten, die durch Benutzerberichte und automatisierte Erkennung gegen bekannte Fakten verfolgt werden
Antwortgenauigkeit wird stichprobenartig geprüft und gegen offizielle Compliance-Standards validiert
Nutzungsmuster werden analysiert, um Missbrauch oder unbeabsichtigte Anwendungen zu erkennen
Leistungskennzahlen (Antwortzeit, Abrufpräzision, Fehlerraten) werden kontinuierlich gemessen
Benutzerfeedback wird regelmäßig überprüft, um neue Risiken zu identifizieren
Wie Monitoring Verbesserungen vorantreibt:
Benutzerfeedback fließt in Modell-Updates und das Tuning des Abrufmechanismus ein
Sicherheitstestergebnisse führen zu Sicherheitsverbesserungen
Regulatorische Änderungen und Best-Practice-Updates werden in der Dokumentation reflektiert
Leistungsdaten steuern iterative Verbesserungen an Genauigkeit und Geschwindigkeit
Incident Response (Reaktion auf Vorfälle)
Wie wir über Probleme kommunizieren:
E-Mail-Benachrichtigungen bei kritischen Vorfällen, die die KI-Funktionalität beeinträchtigen
Slack-Benachrichtigungen für Teams mit konfigurierten Integrationen
Status Seite Updates mit Zeitplänen der Vorfälle und Lösungen
NIS2-konforme Frühwarnungen (24-Stunden-Meldung für signifikante Cybersicherheitsvorfälle)
Abonnieren Sie unsere Status Seite, um Echtzeit-Benachrichtigungen über KI-Systemvorfälle, Wartungsfenster und Updates zu erhalten.
Meldung von Sicherheitsproblemen
Wann Sie melden sollten
Kontaktieren Sie den Support von ISMS Copilot, wenn Ihnen Folgendes auffällt:
KI-Antworten, die gegen Sicherheitsbeschränkungen verstoßen
Mögliche Halluzinationen oder faktisch falsche Informationen
Urheberrechtsverletzungen in den KI-Ausgaben
Unangemessene Inhalte oder Verhaltensweisen
Sicherheitsanfälligkeiten im KI-System
Datenschutzverletzungen oder Datenlecks
So melden Sie Probleme
Klicken Sie auf das Benutzermenü-Symbol (oben rechts)
Wählen Sie Help Center → Support kontaktieren
Beschreiben Sie das Sicherheitsproblem mit folgenden Angaben:
Die genaue Frage oder den Prompt, den Sie verwendet haben
Die Antwort der KI (wenn möglich als Screenshot)
Warum Sie glauben, dass es sich um ein Sicherheitsproblem handelt
Datum und Uhrzeit der Interaktion
Der Support wird das Anliegen untersuchen und innerhalb von 48 Stunden antworten
Das Melden von Sicherheitsproblemen hilft, ISMS Copilot für alle zu verbessern. Ihr Feedback ist wertvoll für die Identifizierung und Bewältigung potenzieller Risiken im KI-Verhalten.
Was nach Ihrer Meldung passiert
Ihre Meldung löst unseren Governance-Prozess aus:
Sofortige Überprüfung (innerhalb von 48 Stunden): Das Support-Team bewertet Schweregrad und Auswirkungen
Untersuchung: Das technische Team analysiert das Problem, reproduziert es und identifiziert die Ursache
Antwort: Sie erhalten ein Update zu den Ergebnissen und geplanten Maßnahmen
Behebung: Probleme werden durch Modell-Updates, Retrieval-Tuning, Code-Fixes oder Dokumentationsverbesserungen behoben
Kontinuierliche Verbesserung: Gewonnene Erkenntnisse werden in Test- und Überwachungsprozesse integriert
Einschränkungen & Bekannte Grenzen
Aktuelle KI-Einschränkungen
Kann nicht im Internet nach aktuellen Informationen suchen (nutzt trainierte Wissensdatenbank)
Hat keinen Echtzeitzugriff auf externe Datenbanken oder APIs
Kann keinen Code ausführen oder Sicherheitstests durchführen
Kann keine Telefonanrufe tätigen oder E-Mails in Ihrem Namen versenden
Kann keine 100 %ige Genauigkeit garantieren (kritische Informationen immer verifizieren)
Grenzwerte des Umfangs
Fokussiert auf ISMS und Compliance (keine Allzweck-KI)
Kann keine Rechts-, Medizin- oder Finanzberatung außerhalb des Compliance-Kontexts bieten
Kann keine offiziellen Standards oder das Urteil eines Auditors ersetzen
Kann keinen Auditerfolg garantieren (die Qualität der Implementierung ist entscheidend)
Nächste Schritte
Erfahren Sie mehr über Datensicherheit und Verschlüsselungsmaßnahmen
Besuchen Sie das Trust Center für detaillierte KI-Governance-Dokumentationen
Hilfe erhalten
Bei Fragen zu KI-Sicherheit und verantwortungsvoller Nutzung:
Nutzen Sie das Trust Center für detaillierte KI-Governance-Informationen
Kontaktieren Sie den Support über das Help-Center-Menü
Melden Sie Sicherheitsbedenken umgehend zur Untersuchung
Prüfen Sie die Status Seite auf bekannte Probleme