Haftungsausschluss für das KI-System
ISMS Copilot ist ein System der künstlichen Intelligenz (KI). Dieser Hinweis erläutert, was dies für Ihre Interaktion mit der Plattform und Ihre Verantwortlichkeiten bei der Verwendung von KI-generierten Inhalten bedeutet.
Sie interagieren mit einer KI
Wenn Sie in ISMS Copilot Nachrichten senden, Dokumente hochladen oder Antworten erhalten, interagieren Sie mit einem KI-System – nicht mit einem menschlichen Experten. Das System nutzt große Sprachmodelle in Kombination mit einer spezialisierten Compliance-Wissensdatenbank, um Anleitungen zu ISO 27001, SOC 2, DSGVO und anderen Frameworks bereitzustellen.
Diese Offenlegung ist gemäß dem EU AI Act (Verordnung 2024/1689, Artikel 50) erforderlich. ISMS Copilot wird als KI-System mit geringem Risiko eingestuft, das direkt mit Nutzern interagiert und Textinhalte generiert.
KI-generierte Inhalte
Alle Antworten, Richtlinienentwürfe, Verfahrensdokumente, Risikobewertungen und sonstigen Ergebnisse, die Sie von ISMS Copilot erhalten, werden von einer KI generiert. Das bedeutet:
Keine menschliche Expertise: Die Ergebnisse werden nicht von Compliance-Beratern, Auditoren oder Juristen verfasst.
Überprüfung erforderlich: Sie müssen alle Inhalte vor der Verwendung in Audits, Zertifizierungen oder behördlichen Einreichungen prüfen und validieren.
Fehler möglich: KI kann trotz Sicherheitsvorkehrungen falsche, unvollständige oder veraltete Informationen erzeugen.
Standardmäßig generisch: Die Ergebnisse müssen an Ihren spezifischen Organisationskontext, Ihre Risikoumgebung und Ihre Anforderungen angepasst werden.
Reichen Sie von der KI generierte Richtlinien, Verfahren oder Bewertungen niemals ohne gründliche menschliche Prüfung durch qualifizierte Compliance-Fachkräfte direkt bei Auditoren oder Zertifizierungsstellen ein.
Ihre Verantwortlichkeiten
Bei der Nutzung von ISMS Copilot sind Sie verantwortlich für:
Verifizierung: Abgleich der KI-Ergebnisse mit offiziellen Standards (ISO 27001:2022, SOC 2 TSC, DSGVO-Text usw.).
Anpassung: Anpassung generischer Inhalte an die Größe, Branche, das Risikoprofil und den Compliance-Umfang Ihrer Organisation.
Fachliches Urteilsvermögen: Nutzen Sie Ihre Expertise oder konsultieren Sie qualifizierte Fachkräfte für endgültige Entscheidungen.
Implementierung: Stellen Sie sicher, dass von der KI entworfene Kontrollen und Verfahren tatsächlich umgesetzt und wirksam sind – Dokumentation allein führt nicht zur Compliance.
Transparenz: Wenn Sie KI-generierte Inhalte extern teilen oder veröffentlichen, legen Sie offen, dass diese mithilfe von KI erstellt wurden, sofern der Kontext dies erfordert.
Betrachten Sie ISMS Copilot als Forschungsassistenten und Entwurfswerkzeug, nicht als Ersatz für Compliance-Expertise. Nutzen Sie ihn, um Arbeitsabläufe zu beschleunigen, Startpunkte zu generieren und Framework-Anforderungen zu untersuchen – aber wenden Sie immer menschliche Aufsicht an.
Einschränkungen der KI
Die KI von ISMS Copilot hat spezifische Einschränkungen:
Wissensstand: Die Trainingsdaten entsprechen dem Stand von Anfang 2025; jüngste regulatorische Änderungen oder Framework-Updates sind möglicherweise nicht berücksichtigt.
Halluzinationen: Trotz Sicherheitsvorkehrungen kann die KI überzeugt klingende, aber falsche Informationen generieren (siehe KI-Sicherheit & verantwortungsvolle Nutzung für Details zur Risikominderung).
Keine Echtzeitdaten: Kann nicht auf Live-Datenbanken, aktuelle Bedrohungsinformationen oder die Live-Systeme Ihrer Organisation zugreifen.
Generischer Kontext: Es fehlt an tiefem Wissen über Ihr spezifisches Geschäftsmodell, Ihre Betriebsumgebung oder Ihre einzigartigen Risiken, sofern Sie keine detaillierten Prompts bereitstellen.
Keine Rechtsberatung: Kann keine Gesetze, Vorschriften oder vertraglichen Verpflichtungen interpretieren, die spezifisch für Ihre Gerichtsbarkeit oder Situation sind.
Keine Zertifizierungsgarantie
Die Nutzung von ISMS Copilot garantiert nicht den Erhalt einer ISO 27001-Zertifizierung, SOC 2-Compliance, DSGVO-Angemessenheit oder eines anderen regulatorischen Ergebnisses. Zertifizierung und Compliance hängen ab von:
Echter Implementierung und dem Betrieb von Kontrollen (nicht nur der Dokumentation)
Nachgewiesener Wirksamkeit über einen bestimmten Zeitraum
Unabhängiger Bewertung durch akkreditierte Zertifizierungsstellen oder Auditoren
Organisatorischer Reife und Engagement für kontinuierliche Verbesserung
Vollständige Details finden Sie unter Service-Einschränkungen und Haftungsausschlüsse.
Einhaltung des EU AI Act
ISMS Copilot erfüllt die Transparenzanforderungen des EU AI Act (Verordnung 2024/1689) für KI-Systeme mit geringem Risiko:
Artikel 50(1): Nutzer werden durch diesen Haftungsausschluss und In-App-Hinweise darüber informiert, dass sie mit einer KI interagieren.
Artikel 50(2): KI-generierte Textausgaben sind in den Metadaten und in nutzerseitigen Haftungsausschlüssen als künstlich generiert gekennzeichnet.
Transparenz: KI-Funktionen, Einschränkungen und Datenverarbeitungsverfahren sind im Help Center und im Trust Center dokumentiert.
ISMS Copilot wird in der EU (Frankreich) unter voller Einhaltung der DSGVO und des AI Act entwickelt und betrieben. Weitere Informationen zur Governance finden Sie in unserer Datenschutzrichtlinie und im Trust Center.
Wie wir KI-Risiken minimieren
ISMS Copilot implementiert mehrere Sicherheitsvorkehrungen, um die KI-Interaktion sicherer und zuverlässiger zu machen:
Dynamische Framework-Wissensinjektion (v2.5): Erkennt Framework-Nennungen (ISO 27001, SOC 2, DSGVO usw.) und speist verifiziertes Wissen ein, bevor Antworten generiert werden, um Halluzinationen zu reduzieren.
Spezialisiertes Training: Die KI wird auf einer proprietären Compliance-Wissensdatenbank aus echten Beratungsprojekten trainiert, nicht auf generischen Internetdaten.
Kein Training mit Nutzerdaten: Ihre Gespräche und Dokumente werden niemals zum Trainieren oder Verbessern von KI-Modellen verwendet.
Anerkennung von Unsicherheit: Die KI gibt explizit an, wenn Informationen unsicher sind, und fordert Sie zur Überprüfung auf.
Umfangsbeschränkung: Die KI ist auf Compliance-Themen beschränkt und lehnt themenfremde oder schädliche Anfragen ab.
Vollständige Details finden Sie in der Übersicht zu KI-Sicherheit & verantwortungsvoller Nutzung.
Datenschutz & Sicherheit
Wenn Sie mit der KI von ISMS Copilot interagieren:
Ihre Prompts und hochgeladenen Dokumente werden verarbeitet, um Antworten zu generieren.
Konversationsdaten werden gemäß Ihren Aufbewahrungseinstellungen gespeichert (1 Tag bis 7 Jahre oder dauerhaft).
Die Daten werden in der EU (Frankfurt, Deutschland) mit Ende-zu-Ende-Verschlüsselung gehostet.
Workspace-Isolierung gewährleistet die Trennung von Kunden- und Projektdaten.
KI-Anbieter (Mistral, OpenAI, xAI) arbeiten unter Vereinbarungen ohne Datenspeicherung – sie speichern Ihre Daten nicht und trainieren nicht damit.
Vollständige Details finden Sie in der Datenschutzrichtlinie und unter Ihre Rechte gemäß DSGVO.
KI-Probleme melden
Wenn Sie auf KI-generierte Inhalte stoßen, die falsch oder unangemessen sind, das Urheberrecht verletzen oder Sicherheitsbedenken aufwerfen, melden Sie dies bitte umgehend:
Klicken Sie auf das Benutzermenü-Symbol (oben rechts) → Help Center → Support kontaktieren
Beschreiben Sie das Problem, einschließlich Ihres Prompts, der KI-Antwort und warum es Sie beunruhigt.
Der Support wird das Problem untersuchen und innerhalb von 48 Stunden antworten.
Ihre Berichte helfen dabei, die Sicherheit und Zuverlässigkeit der KI für alle Nutzer zu verbessern.
Wo Sie mehr erfahren können
Übersicht zu KI-Sicherheit & verantwortungsvoller Nutzung – Detaillierte Sicherheitsvorkehrungen, Halluzinationsprävention und Governance
Service-Einschränkungen und Haftungsausschlüsse – Rechtliche Grundlagen für die KI-Nutzung und Überprüfungsanforderungen
Nutzungsbedingungen – Vollständige rechtliche Bedingungen für die Nutzung von ISMS Copilot
Trust Center – KI-Governance, Sicherheitsrichtlinien und Compliance-Dokumentation
EU AI Act Artikel 50 – Transparenzpflichten für KI-Systeme mit geringem Risiko