Avis de non-responsabilité relatif au système d'IA
ISMS Copilot est un système d'intelligence artificielle (IA). Cet avis explique ce que cela implique pour votre interaction avec la plateforme et vos responsabilités lors de l'utilisation de contenus générés par l'IA.
Vous interagissez avec une IA
Lorsque vous envoyez des messages, téléchargez des documents ou recevez des réponses dans ISMS Copilot, vous interagissez avec un système d'IA et non avec un expert humain. Le système utilise de grands modèles de langage combinés à une base de connaissances spécialisée en conformité pour fournir des conseils sur l'ISO 27001, le SOC 2, le RGPD et d'autres référentiels.
Cette divulgation est requise en vertu de la loi européenne sur l'IA (Règlement 2024/1689, Article 50). ISMS Copilot est classé comme un système d'IA à risque limité qui interagit directement avec les utilisateurs et génère du contenu textuel.
Contenu généré par l'IA
Toutes les réponses, projets de politiques, documents de procédure, évaluations des risques et autres résultats que vous recevez d'ISMS Copilot sont générés par l'IA. Cela signifie :
Pas d'expertise humaine : Les résultats ne sont pas rédigés par des consultants en conformité, des auditeurs ou des professionnels du droit
Nécessité de vérification : Vous devez examiner et valider tout le contenu avant son utilisation dans des audits, certifications ou soumissions réglementaires
Risque d'erreurs : L'IA peut produire des informations incorrectes, incomplètes ou obsolètes malgré les mesures de protection
Générique par défaut : Les résultats doivent être personnalisés en fonction du contexte spécifique de votre organisation, de votre environnement de risque et de vos exigences
Ne soumettez jamais de politiques, procédures ou évaluations générées par l'IA directement à des auditeurs ou à des organismes de certification sans une révision humaine approfondie par des professionnels de la conformité qualifiés.
Vos responsabilités
Lors de l'utilisation d'ISMS Copilot, vous êtes responsable de :
Vérification : Vérifier les résultats de l'IA par rapport aux normes officielles (ISO 27001:2022, SOC 2 TSC, texte du RGPD, etc.)
Personnalisation : Adapter le contenu générique à la taille de votre organisation, à son secteur d'activité, à son profil de risque et à son périmètre de conformité
Jugement professionnel : Appliquer votre expertise ou consulter des professionnels qualifiés pour les décisions finales
Mise en œuvre : S'assurer que les contrôles et procédures rédigés par l'IA sont réellement mis en œuvre et efficaces — la documentation seule ne garantit pas la conformité
Transparence : Si vous partagez ou publiez du contenu généré par l'IA à l'extérieur, indiquez qu'il a été produit à l'aide de l'IA lorsque le contexte l'exige
Considérez ISMS Copilot comme un assistant de recherche et un outil de rédaction, et non comme un substitut à l'expertise en conformité. Utilisez-le pour accélérer vos flux de travail, générer des points de départ et explorer les exigences des référentiels — mais appliquez toujours une supervision humaine.
Limites de l'IA
L'IA d'ISMS Copilot présente des contraintes spécifiques :
Date de coupure des connaissances : Les données d'entraînement sont à jour jusqu'au début de l'année 2025 ; les changements réglementaires récents ou les mises à jour des référentiels peuvent ne pas être reflétés
Hallucinations : Malgré les mesures de protection, l'IA peut générer des informations erronées présentées avec assurance (voir l'aperçu de la sécurité de l'IA et de l'utilisation responsable pour les détails d'atténuation)
Pas de données en temps réel : Impossible d'accéder à des bases de données en direct, à des renseignements sur les menaces actuelles ou aux systèmes en direct de votre organisation
Contexte générique : Manque de connaissance approfondie de votre modèle d'affaires spécifique, de votre environnement opérationnel ou de vos risques uniques, à moins que vous ne fournissiez des instructions détaillées
Pas de conseil juridique : Ne peut interpréter les lois, réglementations ou obligations contractuelles spécifiques à votre juridiction ou situation
Aucune garantie de certification
L'utilisation d'ISMS Copilot ne garantit pas l'obtention de la certification ISO 27001, la conformité SOC 2, l'adéquation au RGPD ou tout autre résultat réglementaire. La certification et la conformité dépendent de :
La mise en œuvre et l'exploitation réelles des contrôles (et pas seulement de la documentation)
L'efficacité démontrée dans le temps
L'évaluation indépendante par des organismes de certification accrédités ou des auditeurs
La maturité organisationnelle et l'engagement envers l'amélioration continue
Consultez les Limitations de service et avis de non-responsabilité pour plus de détails.
Conformité à la loi européenne sur l'IA (EU AI Act)
ISMS Copilot respecte les exigences de transparence de la loi européenne sur l'IA (Règlement 2024/1689) pour les systèmes d'IA à risque limité :
Article 50(1) : Les utilisateurs sont informés qu'ils interagissent avec une IA via cet avis et des notifications dans l'application
Article 50(2) : Les textes générés par l'IA sont marqués comme étant générés artificiellement dans les métadonnées et les avis destinés aux utilisateurs
Transparence : Les capacités de l'IA, ses limites et les pratiques de traitement des données sont documentées dans le Centre d'aide et le Trust Center
ISMS Copilot est conçu et opéré dans l'UE (France) en pleine conformité avec le RGPD et la loi sur l'IA. Consultez notre Politique de confidentialité et notre Trust Center pour des informations détaillées sur la gouvernance.
Comment nous atténuons les risques de l'IA
ISMS Copilot met en œuvre plusieurs mesures de protection pour rendre l'interaction avec l'IA plus sûre et plus fiable :
Injection dynamique de connaissances (v2.5) : Détecte les mentions de référentiels (ISO 27001, SOC 2, RGPD, etc.) et injecte des connaissances vérifiées avant de générer des réponses, réduisant ainsi les hallucinations
Entraînement spécialisé : L'IA est entraînée sur une base de connaissances de conformité propriétaire issue de projets de conseil réels, et non sur des données génériques d'Internet
Aucun entraînement sur les données utilisateur : Vos conversations et documents ne sont jamais utilisés pour entraîner ou améliorer les modèles d'IA
Reconnaissance de l'incertitude : L'IA indique explicitement quand une information est incertaine et vous invite à vérifier
Limitation du périmètre : L'IA est restreinte aux sujets de conformité et refuse les demandes hors sujet ou malveillantes
Pour plus de détails, consultez l'aperçu de la sécurité de l'IA et de l'utilisation responsable.
Confidentialité et sécurité des données
Lorsque vous interagissez avec l'IA d'ISMS Copilot :
Vos instructions et documents téléchargés sont traités pour générer des réponses
Les données de conversation sont stockées selon vos paramètres de rétention (de 1 jour à 7 ans, ou indéfiniment)
Les données sont hébergées dans l'UE (Francfort, Allemagne) avec un chiffrement de bout en bout
L'isolation des espaces de travail garantit la séparation des données clients/projets
Les fournisseurs d'IA (Mistral, OpenAI, xAI) opèrent sous des accords de non-rétention des données — ils ne stockent pas vos données et ne s'entraînent pas dessus
Consultez la Politique de confidentialité et Vos droits en vertu du RGPD pour plus de détails.
Signaler des problèmes liés à l'IA
Si vous rencontrez un contenu généré par l'IA incorrect, inapproprié, violant les droits d'auteur ou soulevant des préoccupations de sécurité, signalez-le immédiatement :
Cliquez sur l'icône du menu utilisateur (en haut à droite) → Centre d'aide → Contacter le support
Décrivez le problème, y compris votre instruction, la réponse de l'IA et la raison de votre préoccupation
Le support enquêtera et répondra sous 48 heures
Vos rapports aident à améliorer la sécurité et la fiabilité de l'IA pour tous les utilisateurs.
En savoir plus
Aperçu de la sécurité de l'IA et de l'utilisation responsable — Mesures de protection détaillées, prévention des hallucinations et gouvernance
Limitations de service et avis de non-responsabilité — Base légale de l'utilisation de l'IA et exigences de vérification
Conditions d'utilisation — Termes juridiques complets pour l'utilisation d'ISMS Copilot
Trust Center — Gouvernance de l'IA, politiques de sécurité et documentation de conformité
Article 50 de l'EU AI Act — Obligations de transparence pour les systèmes d'IA à risque limité