Haftungsausschluss für das KI-System
ISMS Copilot ist ein System der künstlichen Intelligenz (KI). Dieser Hinweis erläutert, was dies für Ihre Interaktion mit der Plattform und Ihre Verantwortlichkeiten bei der Verwendung von KI-generierten Inhalten bedeutet.
Sie interagieren mit einer KI
Wenn Sie Nachrichten senden, Dokumente hochladen oder Antworten in ISMS Copilot erhalten, interagieren Sie mit einem KI-System – nicht mit einem menschlichen Experten. Das System nutzt große Sprachmodelle in Kombination mit einer spezialisierten Compliance-Wissensdatenbank, um Anleitungen zu ISO 27001, SOC 2, DSGVO und anderen Rahmenwerken bereitzustellen.
Diese Offenlegung ist gemäß dem EU AI Act (Verordnung 2024/1689, Artikel 50) erforderlich. ISMS Copilot wird als KI-System mit geringem Risiko eingestuft, das direkt mit Nutzern interagiert und Textinhalte generiert.
KI-generierte Inhalte
Alle Antworten, Richtlinienentwürfe, Verfahrensdokumente, Risikobewertungen und andere Ergebnisse, die Sie von ISMS Copilot erhalten, werden von einer KI generiert. Das bedeutet:
Keine menschliche Expertise: Die Ergebnisse werden nicht von Compliance-Beratern, Auditoren oder Juristen verfasst.
Überprüfung erforderlich: Sie müssen alle Inhalte prüfen und validieren, bevor Sie diese in Audits, Zertifizierungen oder behördlichen Einreichungen verwenden.
Kann Fehler enthalten: KI kann trotz Sicherheitsvorkehrungen falsche, unvollständige oder veraltete Informationen liefern.
Standardmäßig generisch: Die Ergebnisse müssen an Ihren spezifischen Organisationskontext, Ihr Risikoumfeld und Ihre Anforderungen angepasst werden.
Reichen Sie niemals KI-generierte Richtlinien, Verfahren oder Bewertungen direkt bei Auditoren oder Zertifizierungsstellen ein, ohne eine gründliche menschliche Überprüfung durch qualifizierte Compliance-Fachkräfte durchgeführt zu haben.
Ihre Verantwortlichkeiten
Bei der Nutzung von ISMS Copilot sind Sie verantwortlich für:
Verifizierung: Abgleich der KI-Ergebnisse mit offiziellen Standards (ISO 27001:2022, SOC 2 TSC, DSGVO-Text usw.).
Anpassung: Anpassung generischer Inhalte an die Größe, Branche, das Risikoprofil und den Compliance-Umfang Ihrer Organisation.
Fachliches Urteilsvermögen: Nutzen Sie Ihre Expertise oder konsultieren Sie qualifizierte Fachleute für endgültige Entscheidungen.
Implementierung: Stellen Sie sicher, dass von der KI entworfene Kontrollen und Verfahren tatsächlich umgesetzt und wirksam sind – Dokumentation allein führt nicht zur Compliance.
Transparenz: Wenn Sie KI-generierte Inhalte extern teilen oder veröffentlichen, legen Sie offen, dass diese mithilfe von KI erstellt wurden, sofern der Kontext dies erfordert.
Betrachten Sie ISMS Copilot als Recherche-Assistenten und Entwurfswerkzeug, nicht als Ersatz für Compliance-Expertise. Nutzen Sie es, um Arbeitsabläufe zu beschleunigen, Startpunkte zu generieren und Framework-Anforderungen zu untersuchen – aber wenden Sie immer menschliche Aufsicht an.
Einschränkungen der KI
Die KI von ISMS Copilot unterliegt spezifischen Einschränkungen:
Wissensstand: Die Trainingsdaten entsprechen dem Stand von Anfang 2025; jüngste regulatorische Änderungen oder Aktualisierungen von Rahmenwerken sind möglicherweise nicht berücksichtigt.
Halluzinationen: Trotz Schutzmaßnahmen kann die KI sicher klingende, aber falsche Informationen generieren (siehe KI-Sicherheit & verantwortungsvolle Nutzung für Details zur Schadensbegrenzung).
Keine Echtzeitdaten: Kann nicht auf Live-Datenbanken, aktuelle Bedrohungsinformationen oder die Live-Systeme Ihrer Organisation zugreifen.
Generischer Kontext: Es fehlt an tiefem Wissen über Ihr spezifisches Geschäftsmodell, Ihr Betriebsumfeld oder Ihre einzigartigen Risiken, sofern Sie keine detaillierten Prompts bereitstellen.
Keine Rechtsberatung: Kann keine Gesetze, Vorschriften oder vertraglichen Verpflichtungen interpretieren, die spezifisch für Ihre Gerichtsbarkeit oder Situation sind.
Keine Zertifizierungsgarantie
Die Nutzung von ISMS Copilot garantiert nicht, dass Sie eine ISO 27001-Zertifizierung, SOC 2-Konformität, DSGVO-Angemessenheit oder ein anderes regulatorisches Ergebnis erreichen. Zertifizierung und Compliance hängen ab von:
Tatsächlicher Implementierung und Durchführung von Kontrollen (nicht nur Dokumentation)
Nachgewiesener Wirksamkeit über einen längeren Zeitraum
Unabhängiger Bewertung durch akkreditierte Zertifizierungsstellen oder Auditoren
Organisatorischer Reife und Engagement für kontinuierliche Verbesserung
Siehe Dienstleistungseinschränkungen und Haftungsausschlüsse für vollständige Details.
Einhaltung des EU AI Act
ISMS Copilot erfüllt die Transparenzanforderungen des EU AI Act (Verordnung 2024/1689) für KI-Systeme mit geringem Risiko:
Artikel 50(1): Nutzer werden durch diesen Haftungsausschluss und In-App-Hinweise darüber informiert, dass sie mit einer KI interagieren.
Artikel 50(2): KI-generierte Textausgaben sind in den Metadaten und in den für den Nutzer sichtbaren Haftungsausschlüssen als künstlich generiert gekennzeichnet.
Transparenz: KI-Fähigkeiten, Einschränkungen und Datenverarbeitungspraktiken sind im Help Center und im Trust Center dokumentiert.
ISMS Copilot wird in der EU (Frankreich) unter vollständiger Einhaltung der DSGVO und des AI Acts entwickelt und betrieben. Detaillierte Governance-Informationen finden Sie in unserer Datenschutzerklärung und im Trust Center.
Wie wir KI-Risiken minimieren
ISMS Copilot implementiert mehrere Schutzmaßnahmen, um die Interaktion mit der KI sicherer und zuverlässiger zu machen:
Dynamische Framework-Wissensinjektion (v2.5): Erkennt Framework-Erwähnungen (ISO 27001, SOC 2, DSGVO usw.) und speist verifiziertes Wissen ein, bevor Antworten generiert werden, um Halluzinationen zu reduzieren.
Spezialisiertes Training: Die KI wird mit einer proprietären Compliance-Wissensdatenbank aus echten Beratungsprojekten trainiert, nicht mit generischen Internetdaten.
Kein Training mit Nutzerdaten: Ihre Gespräche und Dokumente werden niemals zum Trainieren oder Verbessern der KI-Modelle verwendet.
Anerkennung von Unsicherheit: Die KI gibt explizit an, wenn Informationen unsicher sind, und fordert Sie zur Verifizierung auf.
Umfangsbeschränkung: Die KI ist auf Compliance-Themen beschränkt und lehnt themenfremde oder schädliche Anfragen ab.
Vollständige Details finden Sie in der Übersicht über KI-Sicherheit & verantwortungsvolle Nutzung.
Datenschutz & Sicherheit
Wenn Sie mit der KI von ISMS Copilot interagieren:
Ihre Prompts und hochgeladenen Dokumente werden verarbeitet, um Antworten zu generieren.
Konversationsdaten werden gemäß Ihren Aufbewahrungseinstellungen gespeichert (1 Tag bis 7 Jahre oder dauerhaft).
Die Daten werden in der EU (Frankfurt, Deutschland) mit Ende-zu-Ende-Verschlüsselung gehostet.
Workspace-Isolierung gewährleistet die Trennung von Kunden-/Projektdaten.
KI-Anbieter (Mistral, OpenAI, xAI) arbeiten unter Vereinbarungen zur Null-Datenspeicherung – sie speichern Ihre Daten nicht und trainieren nicht damit.
Vollständige Details finden Sie in der Datenschutzerklärung und unter Ihre Rechte gemäß DSGVO.
KI-Probleme melden
Wenn Sie auf KI-generierte Inhalte stoßen, die falsch oder unangemessen sind, das Urheberrecht verletzen oder Sicherheitsbedenken aufwerfen, melden Sie dies sofort:
Klicken Sie auf das Benutzermenü-Symbol (oben rechts) → Help Center → Support kontaktieren
Beschreiben Sie das Problem, einschließlich Ihres Prompts, der KI-Antwort und warum es Sie beunruhigt.
Der Support wird den Vorfall untersuchen und innerhalb von 48 Stunden antworten.
Ihre Berichte helfen dabei, die KI-Sicherheit und -Zuverlässigkeit für alle Nutzer zu verbessern.
Wo Sie mehr erfahren können
Übersicht über KI-Sicherheit & verantwortungsvolle Nutzung — Detaillierte Schutzmaßnahmen, Halluzinationsprävention und Governance
Dienstleistungseinschränkungen und Haftungsausschlüsse — Rechtliche Grundlage für die KI-Nutzung und Überprüfungsanforderungen
Nutzungsbedingungen — Vollständige rechtliche Bedingungen für die Nutzung von ISMS Copilot
Trust Center — KI-Governance, Sicherheitsrichtlinien und Compliance-Dokumentation
EU AI Act Artikel 50 — Transparenzpflichten für KI-Systeme mit geringem Risiko