Sécurité de l'IA

Aperçu technique du système d'IA

Présentation

Cet article offre une transparence technique sur la manière dont les systèmes d'IA d'ISMS Copilot sont conçus, testés et exploités. Ces détails démontrent notre engagement envers un développement d'IA responsable à travers des pratiques de mise en œuvre vérifiables.

À qui s'adresse cet article

Cet article s'adresse aux :

  • Équipes de sécurité et de conformité évaluant les contrôles de gouvernance de l'IA

  • Auditeurs évaluant la mise en œuvre du système d'IA par rapport aux politiques

  • Gestionnaires de risques nécessitant une transparence technique pour les systèmes d'IA

  • Utilisateurs techniques souhaitant comprendre l'architecture de l'IA

Mise en œuvre de l'ISO 42001

Le système d'IA d'ISMS Copilot est conçu et exploité conformément aux exigences de la norme ISO 42001:2023 (Système de management de l'intelligence artificielle). Notre mise en œuvre technique correspond à des contrôles spécifiques de l'ISO 42001 :

Alignement de l'architecture :

  • A.4.2 (Établissement du contexte) : Système d'injection dynamique de connaissances de référentiels documenté dans le document de conception du système d'IA (AI-SDD-001)

  • A.5 (Évaluation d'impact) : Évaluation complète de l'impact de l'IA (Risque faible 1.9, classification Risque limité selon l'EU AI Act)

  • A.6 (Développement responsable) : Cycle de vie de développement sécurisé avec tests de régression, scans SAST/DAST, tests d'injection de prompts

  • A.7 (Gestion des données) : Accords de non-rétention des données (Zero Data Retention), isolation des espaces de travail, périodes de rétention contrôlées par l'utilisateur

  • A.8 (Interaction avec l'utilisateur) : Avis de transparence, conception avec intervention humaine (human-in-the-loop), avertissements de vérification sur toute la plateforme

  • A.9 (Utilisation responsable) : Limitation de la finalité, prévention du jailbreak, garde-fous sur la portée du contenu

Consultez Comment ISMS Copilot met en œuvre l'ISO 42001 pour une documentation complète sur notre système de gestion de l'IA, nos évaluations de risques, nos tests de biais et notre surveillance des performances.

Architecture d'injection dynamique de connaissances

ISMS Copilot utilise l'injection dynamique de connaissances de référentiels pour ancrer les réponses de l'IA dans des informations de conformité vérifiées. Depuis la version 2.5 (février 2025), cette méthode remplace l'ancienne architecture RAG (Retrieval-Augmented Generation) par une approche plus fiable et plus économe en jetons (tokens).

Fonctionnement de l'injection de connaissances

Composants de l'architecture :

  • Couche de détection des référentiels : Une correspondance de motifs basée sur des expressions régulières (Regex) détecte les mentions de référentiels dans les requêtes (ISO 27001, SOC 2, RGPD, HIPAA, CCPA, NIS 2, DORA, ISO 42001, ISO 27701, EU AI Act)

  • Couche d'injection de connaissances : Charge dynamiquement uniquement les connaissances pertinentes du référentiel dans le contexte de l'IA en fonction des cadres détectés

  • Couche de génération : Les grands modèles de langage (LLM) des fournisseurs d'IA d'entreprise reçoivent les connaissances du référentiel avant de générer des réponses

  • Mécanisme de validation : Les connaissances fournies à l'IA garantissent que les réponses sont ancrées dans les exigences de conformité réelles, et non dans des suppositions probabilistes

L'injection dynamique de connaissances élimine les hallucinations en fournissant à l'IA les connaissances réelles du référentiel avant qu'elle ne réponde. La détection a lieu avant le traitement par l'IA (et non par IA), garantissant une fiabilité de 100 % lorsque des référentiels sont mentionnés.

Pourquoi l'injection dynamique est cruciale pour la conformité :

  • Élimine les hallucinations : L'IA reçoit des connaissances vérifiées avant de répondre, évitant l'invention de numéros de contrôle ou d'exigences

  • Efficacité des jetons : Seuls les référentiels pertinents sont chargés (~1-2K jetons) au lieu d'envoyer toutes les connaissances (~10K jetons) à chaque requête

  • Détection fiable : La correspondance par Regex (non basée sur l'IA) garantit qu'aucune mention de référentiel n'est oubliée

  • Architecture extensible : Nouveaux référentiels ajoutés par simple définition d'objet, sans réentraînement du modèle

  • Support multi-référentiels : Gère les requêtes mentionnant plusieurs cadres simultanément (ex: \"Mapper l'ISO 27001 vers SOC 2\")

Mise en œuvre technique

Processus de détection :

  1. L'utilisateur soumet une requête (ex: \"Qu'est-ce que l'Annexe A.5.9 de l'ISO 27001 ?\")

  2. La détection scanne la requête pour trouver des correspondances (ISO 27001, RGPD, SOC 2, etc.)

  3. Les référentiels identifiés déclenchent l'injection de connaissances

  4. Les connaissances pertinentes sont ajoutées au prompt système de l'IA avant la génération

Référentiels supportés (v2.5) :

  • ISO 27001:2022 — Système de management de la sécurité de l'information

  • ISO 42001:2023 — Système de management de l'intelligence artificielle

  • ISO 27701:2025 — Système de management de la protection de la vie privée

  • SOC 2 — Service Organization Control (Critères de services de confiance)

  • HIPAA — Health Insurance Portability and Accountability Act

  • RGPD — Règlement Général sur la Protection des Données

  • CCPA — California Consumer Privacy Act

  • NIS 2 — Directive sur la sécurité des réseaux et de l'information

  • DORA — Règlement sur la résilience opérationnelle numérique

  • EU AI Act — Règlement de l'Union européenne sur l'intelligence artificielle

De nouveaux référentiels sont ajoutés en continu. Les prochaines priorités incluent NIST 800-53, PCI DSS et d'autres réglementations régionales. Consultez le Journal des modifications du produit pour les mises à jour.

Évolution du RAG vers l'injection dynamique

Approche précédente (Pré-v2.5) : Architecture RAG

  • La recherche sémantique extrayait des extraits de documentation pertinents

  • La qualité de l'extraction variait selon la formulation de la requête

  • L'intégralité des ~10K jetons de connaissances était envoyée pour de nombreuses requêtes

  • Principalement axée sur l'ISO 27001

Approche actuelle (v2.5+) : Injection dynamique de référentiel

  • La détection par Regex assure une identification fiable du référentiel

  • Seuls les référentiels pertinents sont chargés (économie de jetons)

  • Supporte 10 référentiels simultanément

  • Conception extensible pour des ajouts rapides de nouveaux cadres

Si vous voyez des références à l'\"architecture RAG\" dans d'anciennes documentations ou sources externes, notez qu'ISMS Copilot est passé à l'injection dynamique de connaissances en version 2.5 (février 2025). Cette nouvelle approche est plus fiable et supporte bien plus de référentiels.

Fournisseurs d'IA et protection des données

Nous utilisons des fournisseurs d'IA de classe entreprise avec des accords de protection des données stricts.

Fournisseurs actuels

Modèles d'IA backend :

  • Anthropic Claude (par défaut) — Réponses de chat et analyse de conformité

  • xAI Grok — Génération et formatage de documents

  • OpenAI GPT — Détection (identification du type de document et analyse)

  • Mistral AI — Fournisseur basé dans l'UE pour le mode de protection avancée des données

Anthropic Claude est le fournisseur par défaut pour les conversations, avec un basculement automatique vers OpenAI en cas d'interruption de service. xAI Grok gère la génération de documents, tandis qu'OpenAI GPT est utilisé pour les tâches de détection. Lorsque la protection avancée des données est activée, toutes les opérations basculent sur Mistral AI (basé dans l'UE). Tous les modèles accèdent à la même base de connaissances spécialisée via l'injection dynamique, garantissant des conseils cohérents et fiables.

Accords de non-rétention des données (ZDR)

Tous les fournisseurs d'IA opèrent sous des accords ZDR (Zero Data Retention) :

Vos données ne sont JAMAIS utilisées pour entraîner des modèles d'IA. Les accords ZDR garantissent que vos conversations, documents téléchargés et contenus d'espace de travail restent confidentiels et ne sont pas conservés par les fournisseurs au-delà du traitement de vos requêtes.

Termes de l'accord ZDR :

  • Aucune rétention des données utilisateur au-delà du traitement de la requête

  • Pas d'entraînement de modèle sur le contenu client

  • Transferts de données conformes au RGPD avec Clauses Contractuelles Types (CCT)

  • Normes de sécurité d'entreprise appliquées

Pour des informations détaillées sur les sous-traitants et les flux de données, consultez notre Registre des activités de traitement.

Exigences de développement

Chaque composant du système d'IA est développé selon des exigences documentées définissant le comportement attendu, les contraintes de sécurité et les seuils de performance.

Exigences fonctionnelles

Définition de la portée :

  • L'IA fournit une assistance à la conformité, pas des conseils juridiques

  • Limites des tâches : génération de politiques, analyse d'écarts, préparation d'audit, révision de documents

  • Application des contraintes : pas d'accès internet, pas d'exécution de code, pas de traitement de données personnelles hors usage plateforme

Exigences de performance

Objectifs de qualité :

  • Exactitude des réponses basée sur des sources citées

  • Fenêtre contextuelle suffisante pour l'analyse de conformité multi-documents

  • Temps de réponse optimisé pour un usage interactif (objectif : moins de 10 secondes)

  • Limites de débit définies par niveau d'utilisateur pour assurer la stabilité du système

Exigences de sécurité

Atténuation des hallucinations :

  • Ancrage aux sources : les réponses doivent référencer la documentation extraite

  • Validation de l'extraction : réponses vérifiées par rapport au contenu source

  • Score de confiance : incertitude reconnue lorsque les sources sont ambiguës

  • Avertissements de vérification : tous les résultats nécessitent une révision humaine

Filtrage de contenu :

  • Détection et blocage des contenus inappropriés

  • Limites de portée : l'IA refuse les requêtes hors sujet (ex: sujets non liés, conseils médicaux/juridiques)

  • Protection contre le jailbreak et l'injection de prompts

Consultez l'Aperçu de la sécurité de l'IA et de l'utilisation responsable pour les garde-fous détaillés.

Exigences de traitement des données

Confidentialité dès la conception :

  • Pas de données utilisateur pour l'entraînement (accords ZDR appliqués)

  • Minimisation des données : seules les données nécessaires sont traitées pour la génération

  • Traitement temporaire : pas de stockage long terme des prompts/réponses hors journaux de session

  • Contrôles de rétention : périodes configurables par l'utilisateur (1 jour à 7 ans, ou illimité)

  • Contrôles de transfert : transferts conformes au RGPD avec CCT

Pour nos pratiques complètes, consultez notre Politique de confidentialité.

Tests de vérification et de validation

Les systèmes d'IA subissent des tests rigoureux avant déploiement. Aucun système n'est mis en ligne sans passer la validation basée sur les exigences.

Tests de régression

Des tests automatisés sont lancés à chaque modification de code pour garantir l'intégrité des fonctionnalités existantes.

Couverture des tests :

  • Précision de l'extraction : Précision et rappel par rapport à des jeux de données de référence

  • Ancrage des réponses : Vérification que les sorties citent les sources extraites

  • Détection d'hallucination : Comparaison par rapport à des réponses erronées connues

  • Benchmarks de performance : Validation du temps de réponse et de la gestion du contexte

Tests de sécurité

Les systèmes d'IA subissent la même validation de sécurité que tous les composants de la plateforme.

Pipeline de tests :

  • SAST (Static Application Security Testing) : Analyse de vulnérabilités au niveau du code avec Semgrep

  • DAST (Dynamic Application Security Testing) : Validation de la sécurité au moment de l'exécution

  • Tests de pénétration : Évaluations annuelles par des tiers

  • Tests d'injection de prompts : Validation contre les entrées adverses tentant de contourner les sécurités

Notre cycle de vie de développement sécurisé garantit que les systèmes d'IA répondent aux mêmes normes de sécurité que le reste. Voir nos Politiques de sécurité pour les détails.

Tests d'acceptation utilisateur (UAT)

La validation en scénarios réels avec des professionnels de la conformité garantit que :

  • Les résultats répondent aux standards de qualité professionnelle

  • Les réponses sont adaptées aux cas d'usage de conformité

  • Les limitations sont clairement communiquées

  • Les mécanismes de retour (feedback) sont accessibles et efficaces

Liste de vérification du déploiement

Les systèmes d'IA sont déployés uniquement après avoir satisfait aux exigences :

Le déploiement nécessite 100 % de succès aux tests de régression, des scans de sécurité validés (aucune vulnérabilité critique/haute), le respect des benchmarks, la mise à jour de la documentation et la configuration du monitoring des hallucinations.

Les déploiements échouant à la validation sont annulés jusqu'à satisfaction des exigences.

Surveillance et amélioration continue

Après déploiement, nous surveillons le comportement du système pour détecter toute dégradation, nouveau problème ou usage abusif.

Métriques de surveillance

Ce que nous suivons :

  • Taux d'hallucination : Suivi via les rapports utilisateurs et la détection automatisée

  • Exactitude des réponses : Validation par échantillonnage par rapport aux normes réelles

  • Modèles d'utilisation : Détection d'usages hors portée ou inappropriés

  • Métriques de performance : Temps de réponse, précision d'extraction, taux d'erreur

  • Retours utilisateurs : Rapports d'impacts indésirables, tickets de support, demandes de fonctionnalités

Cycle d'amélioration continue

Les données de surveillance alimentent les améliorations itératives :

Boucles de rétroaction :

  • Retours utilisateurs et rapports d'impact → mises à jour des modèles et réglage de l'extraction

  • Résultats des tests de sécurité → améliorations de la sécurité et mise à jour des contrôles

  • Changements réglementaires → mise à jour de la documentation et des référentiels

  • Surveillance des performances → amélioration de la précision et optimisation des réponses

Réponse aux incidents

Nous informons les utilisateurs des incidents liés à l'IA pour maintenir la transparence.

Canaux de notification :

  • Alertes par email pour les incidents critiques affectant les fonctionnalités d'IA

  • Notifications Slack pour les équipes abonnées

  • Mises à jour de la page de statut avec chronologie et résolutions

  • Avertissements précoces conformes à NIS2 (notification sous 24h pour les incidents significatifs)

Abonnez-vous à notre page de statut pour recevoir des notifications en temps réel.

Limitations connues

Les systèmes d'IA ont des limitations intrinsèques que les utilisateurs doivent comprendre pour une utilisation responsable.

Limitations techniques

L'IA peut contenir des inexactitudes (hallucinations) même avec l'injection de connaissances. Les utilisateurs doivent vérifier les résultats par rapport aux normes officielles.

Contraintes actuelles :

  • Nature probabiliste : L'IA génère des réponses basées sur des modèles statistiques, pas sur une logique déterministe

  • Pas d'accès internet : L'IA ne peut pas récupérer d'informations en temps réel sur le web

  • Pas d'exécution de code : L'IA ne peut pas effectuer de calculs complexes ou valider des implémentations techniques

  • Date de coupure des connaissances : La connaissance du modèle est limitée à sa date d'entraînement (varie selon le fournisseur)

  • Limites de contexte : La fenêtre contextuelle maximale limite la quantité d'informations traitées par requête

  • Limites de domaine : L'IA est entraînée pour la conformité ; les performances dans d'autres domaines ne sont pas garanties

Pour les détails et solutions de contournement, consultez notre page Problèmes connus.

Responsabilité de vérification de l'utilisateur

ISMS Copilot est conçu pour assister, non remplacer, le jugement professionnel :

  • Recoupez les suggestions de l'IA avec les normes officielles

  • Validez les informations critiques avant soumission aux auditeurs

  • Utilisez l'IA comme un assistant de consultant, pas comme un substitut à l'expertise

  • Exercez votre jugement professionnel en appliquant les recommandations

Voir Comment utiliser ISMS Copilot de manière responsable pour les meilleures pratiques.

Signalement et retours

Le feedback des utilisateurs est essentiel. Nous proposons plusieurs mécanismes pour signaler des problèmes ou des comportements inattendus.

Comment signaler un problème

Impacts indésirables ou hallucinations :

  1. Menu utilisateur (haut à droite) > Centre d'aide > Contacter le support

  2. Incluez le prompt, la réponse et des captures d'écran

  3. Réponse attendue sous 48 heures

Signalement intégré :

  • Utilisez le bouton \"Signaler un problème\" disponible partout pour signaler une réponse spécifique

Ce qu'il se passe après un signalement

  1. Examen immédiat (sous 48h) : L'équipe support évalue la gravité

  2. Enquête : L'équipe technique analyse, reproduit et identifie la cause racine

  3. Réponse : Vous recevez une mise à jour sur les conclusions et actions prévues

  4. Remédiation : Problèmes corrigés via mise à jour de modèle, réglage ou correctif de code

  5. Amélioration continue : Enseignements intégrés aux processus de test

Les problèmes de haute gravité (sécurité, fuite de données) sont remontés immédiatement pour remédiation urgente.

Voir l'Aperçu de la sécurité de l'IA pour les instructions de signalement détaillées.

Mises à jour de la documentation

Les spécifications techniques sont mises à jour lorsque :

  • Les fournisseurs d'IA changent (nouveaux modèles, API obsolètes)

  • L'architecture évolue (nouveaux composants, méthodes de validation)

  • Les exigences sont révisées (nouvelles contraintes, objectifs de performance)

  • Les tests s'étendent (nouvelles techniques, outils de sécurité)

Les mises à jour sont communiquées via les notes de version et cette page. Abonnez-vous à notre page de statut pour les notifications.

Étapes suivantes

  • Découvrir comment ISMS Copilot met en œuvre l'ISO 42001

  • En savoir plus sur les garde-fous et l'utilisation responsable

  • Comprendre les hallucinations de l'IA et comment les prévenir

  • Suivre les meilleures pratiques d'utilisation d'ISMS Copilot

  • Consulter nos Politiques de sécurité complètes

Obtenir de l'aide

Pour des questions techniques ou une documentation supplémentaire :

  • Contactez le support via le menu Centre d'aide

  • Signalez immédiatement toute préoccupation de sécurité

  • Consultez le Trust Center pour la gouvernance de l'IA détaillée

  • Vérifiez la Page de statut pour les problèmes connus

Cela vous a-t-il été utile ?