Aperçu technique du système d'IA
Présentation
Cet article offre une transparence technique sur la manière dont les systèmes d'IA d'ISMS Copilot sont conçus, testés et exploités. Ces détails démontrent notre engagement envers un développement d'IA responsable à travers des pratiques de mise en œuvre vérifiables.
À qui s'adresse cet article
Cet article s'adresse aux :
Équipes de sécurité et de conformité évaluant les contrôles de gouvernance de l'IA
Auditeurs évaluant la mise en œuvre du système d'IA par rapport aux politiques
Gestionnaires de risques nécessitant une transparence technique pour les systèmes d'IA
Utilisateurs techniques souhaitant comprendre l'architecture de l'IA
Mise en œuvre de l'ISO 42001
Le système d'IA d'ISMS Copilot est conçu et exploité conformément aux exigences de la norme ISO 42001:2023 (Système de management de l'intelligence artificielle). Notre mise en œuvre technique correspond à des contrôles spécifiques de l'ISO 42001 :
Alignement de l'architecture :
A.4.2 (Établissement du contexte) : Système d'injection dynamique de connaissances de référentiels documenté dans le document de conception du système d'IA (AI-SDD-001)
A.5 (Évaluation d'impact) : Évaluation complète de l'impact de l'IA (Risque faible 1.9, classification Risque limité selon l'EU AI Act)
A.6 (Développement responsable) : Cycle de vie de développement sécurisé avec tests de régression, scans SAST/DAST, tests d'injection de prompts
A.7 (Gestion des données) : Accords de non-rétention des données (Zero Data Retention), isolation des espaces de travail, périodes de rétention contrôlées par l'utilisateur
A.8 (Interaction avec l'utilisateur) : Avis de transparence, conception avec intervention humaine (human-in-the-loop), avertissements de vérification sur toute la plateforme
A.9 (Utilisation responsable) : Limitation de la finalité, prévention du jailbreak, garde-fous sur la portée du contenu
Consultez Comment ISMS Copilot met en œuvre l'ISO 42001 pour une documentation complète sur notre système de gestion de l'IA, nos évaluations de risques, nos tests de biais et notre surveillance des performances.
Architecture d'injection dynamique de connaissances
ISMS Copilot utilise l'injection dynamique de connaissances de référentiels pour ancrer les réponses de l'IA dans des informations de conformité vérifiées. Depuis la version 2.5 (février 2025), cette méthode remplace l'ancienne architecture RAG (Retrieval-Augmented Generation) par une approche plus fiable et plus économe en jetons (tokens).
Fonctionnement de l'injection de connaissances
Composants de l'architecture :
Couche de détection des référentiels : Une correspondance de motifs basée sur des expressions régulières (Regex) détecte les mentions de référentiels dans les requêtes (ISO 27001, SOC 2, RGPD, HIPAA, CCPA, NIS 2, DORA, ISO 42001, ISO 27701, EU AI Act)
Couche d'injection de connaissances : Charge dynamiquement uniquement les connaissances pertinentes du référentiel dans le contexte de l'IA en fonction des cadres détectés
Couche de génération : Les grands modèles de langage (LLM) des fournisseurs d'IA d'entreprise reçoivent les connaissances du référentiel avant de générer des réponses
Mécanisme de validation : Les connaissances fournies à l'IA garantissent que les réponses sont ancrées dans les exigences de conformité réelles, et non dans des suppositions probabilistes
L'injection dynamique de connaissances élimine les hallucinations en fournissant à l'IA les connaissances réelles du référentiel avant qu'elle ne réponde. La détection a lieu avant le traitement par l'IA (et non par IA), garantissant une fiabilité de 100 % lorsque des référentiels sont mentionnés.
Pourquoi l'injection dynamique est cruciale pour la conformité :
Élimine les hallucinations : L'IA reçoit des connaissances vérifiées avant de répondre, évitant l'invention de numéros de contrôle ou d'exigences
Efficacité des jetons : Seuls les référentiels pertinents sont chargés (~1-2K jetons) au lieu d'envoyer toutes les connaissances (~10K jetons) à chaque requête
Détection fiable : La correspondance par Regex (non basée sur l'IA) garantit qu'aucune mention de référentiel n'est oubliée
Architecture extensible : Nouveaux référentiels ajoutés par simple définition d'objet, sans réentraînement du modèle
Support multi-référentiels : Gère les requêtes mentionnant plusieurs cadres simultanément (ex: \"Mapper l'ISO 27001 vers SOC 2\")
Mise en œuvre technique
Processus de détection :
L'utilisateur soumet une requête (ex: \"Qu'est-ce que l'Annexe A.5.9 de l'ISO 27001 ?\")
La détection scanne la requête pour trouver des correspondances (ISO 27001, RGPD, SOC 2, etc.)
Les référentiels identifiés déclenchent l'injection de connaissances
Les connaissances pertinentes sont ajoutées au prompt système de l'IA avant la génération
Référentiels supportés (v2.5) :
ISO 27001:2022 — Système de management de la sécurité de l'information
ISO 42001:2023 — Système de management de l'intelligence artificielle
ISO 27701:2025 — Système de management de la protection de la vie privée
SOC 2 — Service Organization Control (Critères de services de confiance)
HIPAA — Health Insurance Portability and Accountability Act
RGPD — Règlement Général sur la Protection des Données
CCPA — California Consumer Privacy Act
NIS 2 — Directive sur la sécurité des réseaux et de l'information
DORA — Règlement sur la résilience opérationnelle numérique
EU AI Act — Règlement de l'Union européenne sur l'intelligence artificielle
De nouveaux référentiels sont ajoutés en continu. Les prochaines priorités incluent NIST 800-53, PCI DSS et d'autres réglementations régionales. Consultez le Journal des modifications du produit pour les mises à jour.
Évolution du RAG vers l'injection dynamique
Approche précédente (Pré-v2.5) : Architecture RAG
La recherche sémantique extrayait des extraits de documentation pertinents
La qualité de l'extraction variait selon la formulation de la requête
L'intégralité des ~10K jetons de connaissances était envoyée pour de nombreuses requêtes
Principalement axée sur l'ISO 27001
Approche actuelle (v2.5+) : Injection dynamique de référentiel
La détection par Regex assure une identification fiable du référentiel
Seuls les référentiels pertinents sont chargés (économie de jetons)
Supporte 10 référentiels simultanément
Conception extensible pour des ajouts rapides de nouveaux cadres
Si vous voyez des références à l'\"architecture RAG\" dans d'anciennes documentations ou sources externes, notez qu'ISMS Copilot est passé à l'injection dynamique de connaissances en version 2.5 (février 2025). Cette nouvelle approche est plus fiable et supporte bien plus de référentiels.
Fournisseurs d'IA et protection des données
Nous utilisons des fournisseurs d'IA de classe entreprise avec des accords de protection des données stricts.
Fournisseurs actuels
Modèles d'IA backend :
Anthropic Claude (par défaut) — Réponses de chat et analyse de conformité
xAI Grok — Génération et formatage de documents
OpenAI GPT — Détection (identification du type de document et analyse)
Mistral AI — Fournisseur basé dans l'UE pour le mode de protection avancée des données
Anthropic Claude est le fournisseur par défaut pour les conversations, avec un basculement automatique vers OpenAI en cas d'interruption de service. xAI Grok gère la génération de documents, tandis qu'OpenAI GPT est utilisé pour les tâches de détection. Lorsque la protection avancée des données est activée, toutes les opérations basculent sur Mistral AI (basé dans l'UE). Tous les modèles accèdent à la même base de connaissances spécialisée via l'injection dynamique, garantissant des conseils cohérents et fiables.
Accords de non-rétention des données (ZDR)
Tous les fournisseurs d'IA opèrent sous des accords ZDR (Zero Data Retention) :
Vos données ne sont JAMAIS utilisées pour entraîner des modèles d'IA. Les accords ZDR garantissent que vos conversations, documents téléchargés et contenus d'espace de travail restent confidentiels et ne sont pas conservés par les fournisseurs au-delà du traitement de vos requêtes.
Termes de l'accord ZDR :
Aucune rétention des données utilisateur au-delà du traitement de la requête
Pas d'entraînement de modèle sur le contenu client
Transferts de données conformes au RGPD avec Clauses Contractuelles Types (CCT)
Normes de sécurité d'entreprise appliquées
Pour des informations détaillées sur les sous-traitants et les flux de données, consultez notre Registre des activités de traitement.
Exigences de développement
Chaque composant du système d'IA est développé selon des exigences documentées définissant le comportement attendu, les contraintes de sécurité et les seuils de performance.
Exigences fonctionnelles
Définition de la portée :
L'IA fournit une assistance à la conformité, pas des conseils juridiques
Limites des tâches : génération de politiques, analyse d'écarts, préparation d'audit, révision de documents
Application des contraintes : pas d'accès internet, pas d'exécution de code, pas de traitement de données personnelles hors usage plateforme
Exigences de performance
Objectifs de qualité :
Exactitude des réponses basée sur des sources citées
Fenêtre contextuelle suffisante pour l'analyse de conformité multi-documents
Temps de réponse optimisé pour un usage interactif (objectif : moins de 10 secondes)
Limites de débit définies par niveau d'utilisateur pour assurer la stabilité du système
Exigences de sécurité
Atténuation des hallucinations :
Ancrage aux sources : les réponses doivent référencer la documentation extraite
Validation de l'extraction : réponses vérifiées par rapport au contenu source
Score de confiance : incertitude reconnue lorsque les sources sont ambiguës
Avertissements de vérification : tous les résultats nécessitent une révision humaine
Filtrage de contenu :
Détection et blocage des contenus inappropriés
Limites de portée : l'IA refuse les requêtes hors sujet (ex: sujets non liés, conseils médicaux/juridiques)
Protection contre le jailbreak et l'injection de prompts
Consultez l'Aperçu de la sécurité de l'IA et de l'utilisation responsable pour les garde-fous détaillés.
Exigences de traitement des données
Confidentialité dès la conception :
Pas de données utilisateur pour l'entraînement (accords ZDR appliqués)
Minimisation des données : seules les données nécessaires sont traitées pour la génération
Traitement temporaire : pas de stockage long terme des prompts/réponses hors journaux de session
Contrôles de rétention : périodes configurables par l'utilisateur (1 jour à 7 ans, ou illimité)
Contrôles de transfert : transferts conformes au RGPD avec CCT
Pour nos pratiques complètes, consultez notre Politique de confidentialité.
Tests de vérification et de validation
Les systèmes d'IA subissent des tests rigoureux avant déploiement. Aucun système n'est mis en ligne sans passer la validation basée sur les exigences.
Tests de régression
Des tests automatisés sont lancés à chaque modification de code pour garantir l'intégrité des fonctionnalités existantes.
Couverture des tests :
Précision de l'extraction : Précision et rappel par rapport à des jeux de données de référence
Ancrage des réponses : Vérification que les sorties citent les sources extraites
Détection d'hallucination : Comparaison par rapport à des réponses erronées connues
Benchmarks de performance : Validation du temps de réponse et de la gestion du contexte
Tests de sécurité
Les systèmes d'IA subissent la même validation de sécurité que tous les composants de la plateforme.
Pipeline de tests :
SAST (Static Application Security Testing) : Analyse de vulnérabilités au niveau du code avec Semgrep
DAST (Dynamic Application Security Testing) : Validation de la sécurité au moment de l'exécution
Tests de pénétration : Évaluations annuelles par des tiers
Tests d'injection de prompts : Validation contre les entrées adverses tentant de contourner les sécurités
Notre cycle de vie de développement sécurisé garantit que les systèmes d'IA répondent aux mêmes normes de sécurité que le reste. Voir nos Politiques de sécurité pour les détails.
Tests d'acceptation utilisateur (UAT)
La validation en scénarios réels avec des professionnels de la conformité garantit que :
Les résultats répondent aux standards de qualité professionnelle
Les réponses sont adaptées aux cas d'usage de conformité
Les limitations sont clairement communiquées
Les mécanismes de retour (feedback) sont accessibles et efficaces
Liste de vérification du déploiement
Les systèmes d'IA sont déployés uniquement après avoir satisfait aux exigences :
Le déploiement nécessite 100 % de succès aux tests de régression, des scans de sécurité validés (aucune vulnérabilité critique/haute), le respect des benchmarks, la mise à jour de la documentation et la configuration du monitoring des hallucinations.
Les déploiements échouant à la validation sont annulés jusqu'à satisfaction des exigences.
Surveillance et amélioration continue
Après déploiement, nous surveillons le comportement du système pour détecter toute dégradation, nouveau problème ou usage abusif.
Métriques de surveillance
Ce que nous suivons :
Taux d'hallucination : Suivi via les rapports utilisateurs et la détection automatisée
Exactitude des réponses : Validation par échantillonnage par rapport aux normes réelles
Modèles d'utilisation : Détection d'usages hors portée ou inappropriés
Métriques de performance : Temps de réponse, précision d'extraction, taux d'erreur
Retours utilisateurs : Rapports d'impacts indésirables, tickets de support, demandes de fonctionnalités
Cycle d'amélioration continue
Les données de surveillance alimentent les améliorations itératives :
Boucles de rétroaction :
Retours utilisateurs et rapports d'impact → mises à jour des modèles et réglage de l'extraction
Résultats des tests de sécurité → améliorations de la sécurité et mise à jour des contrôles
Changements réglementaires → mise à jour de la documentation et des référentiels
Surveillance des performances → amélioration de la précision et optimisation des réponses
Réponse aux incidents
Nous informons les utilisateurs des incidents liés à l'IA pour maintenir la transparence.
Canaux de notification :
Alertes par email pour les incidents critiques affectant les fonctionnalités d'IA
Notifications Slack pour les équipes abonnées
Mises à jour de la page de statut avec chronologie et résolutions
Avertissements précoces conformes à NIS2 (notification sous 24h pour les incidents significatifs)
Abonnez-vous à notre page de statut pour recevoir des notifications en temps réel.
Limitations connues
Les systèmes d'IA ont des limitations intrinsèques que les utilisateurs doivent comprendre pour une utilisation responsable.
Limitations techniques
L'IA peut contenir des inexactitudes (hallucinations) même avec l'injection de connaissances. Les utilisateurs doivent vérifier les résultats par rapport aux normes officielles.
Contraintes actuelles :
Nature probabiliste : L'IA génère des réponses basées sur des modèles statistiques, pas sur une logique déterministe
Pas d'accès internet : L'IA ne peut pas récupérer d'informations en temps réel sur le web
Pas d'exécution de code : L'IA ne peut pas effectuer de calculs complexes ou valider des implémentations techniques
Date de coupure des connaissances : La connaissance du modèle est limitée à sa date d'entraînement (varie selon le fournisseur)
Limites de contexte : La fenêtre contextuelle maximale limite la quantité d'informations traitées par requête
Limites de domaine : L'IA est entraînée pour la conformité ; les performances dans d'autres domaines ne sont pas garanties
Pour les détails et solutions de contournement, consultez notre page Problèmes connus.
Responsabilité de vérification de l'utilisateur
ISMS Copilot est conçu pour assister, non remplacer, le jugement professionnel :
Recoupez les suggestions de l'IA avec les normes officielles
Validez les informations critiques avant soumission aux auditeurs
Utilisez l'IA comme un assistant de consultant, pas comme un substitut à l'expertise
Exercez votre jugement professionnel en appliquant les recommandations
Voir Comment utiliser ISMS Copilot de manière responsable pour les meilleures pratiques.
Signalement et retours
Le feedback des utilisateurs est essentiel. Nous proposons plusieurs mécanismes pour signaler des problèmes ou des comportements inattendus.
Comment signaler un problème
Impacts indésirables ou hallucinations :
Menu utilisateur (haut à droite) > Centre d'aide > Contacter le support
Incluez le prompt, la réponse et des captures d'écran
Réponse attendue sous 48 heures
Signalement intégré :
Utilisez le bouton \"Signaler un problème\" disponible partout pour signaler une réponse spécifique
Ce qu'il se passe après un signalement
Examen immédiat (sous 48h) : L'équipe support évalue la gravité
Enquête : L'équipe technique analyse, reproduit et identifie la cause racine
Réponse : Vous recevez une mise à jour sur les conclusions et actions prévues
Remédiation : Problèmes corrigés via mise à jour de modèle, réglage ou correctif de code
Amélioration continue : Enseignements intégrés aux processus de test
Les problèmes de haute gravité (sécurité, fuite de données) sont remontés immédiatement pour remédiation urgente.
Voir l'Aperçu de la sécurité de l'IA pour les instructions de signalement détaillées.
Mises à jour de la documentation
Les spécifications techniques sont mises à jour lorsque :
Les fournisseurs d'IA changent (nouveaux modèles, API obsolètes)
L'architecture évolue (nouveaux composants, méthodes de validation)
Les exigences sont révisées (nouvelles contraintes, objectifs de performance)
Les tests s'étendent (nouvelles techniques, outils de sécurité)
Les mises à jour sont communiquées via les notes de version et cette page. Abonnez-vous à notre page de statut pour les notifications.
Étapes suivantes
Découvrir comment ISMS Copilot met en œuvre l'ISO 42001
En savoir plus sur les garde-fous et l'utilisation responsable
Comprendre les hallucinations de l'IA et comment les prévenir
Suivre les meilleures pratiques d'utilisation d'ISMS Copilot
Consulter nos Politiques de sécurité complètes
Obtenir de l'aide
Pour des questions techniques ou une documentation supplémentaire :
Contactez le support via le menu Centre d'aide
Signalez immédiatement toute préoccupation de sécurité
Consultez le Trust Center pour la gouvernance de l'IA détaillée
Vérifiez la Page de statut pour les problèmes connus