Référentiels pris en charge

Système de management de l'IA ISO 42001

L'ISO 42001 est la première norme internationale relative aux systèmes de management de l'intelligence artificielle (SMIA). Publiée en décembre 2023, elle fournit un cadre aux organisations qui développent, fournissent ou utilisent des systèmes d'IA pour gérer les risques et les opportunités de manière responsable. L'ISO 42001 traite des défis spécifiques à l'IA tels que les biais, la transparence, la responsabilité et l'impact sociétal, parallèlement aux préoccupations traditionnelles de sécurité de l'information.

L'ISO 42001 repose sur la même structure de système de management que l'ISO 27001, ce qui la rend compatible avec les implémentations de SMSI existantes. Les organisations peuvent viser une double certification.

Qui a besoin de l'ISO 42001 ?

L'ISO 42001 est conçue pour les organisations tout au long du cycle de vie de l'IA :

  • Développeurs d'IA : Entreprises créant des modèles de fondation, des plateformes d'apprentissage automatique ou des algorithmes d'IA

  • Fournisseurs d'IA : Plateformes SaaS proposant des fonctionnalités basées sur l'IA (chatbots, recommandations, automatisation)

  • Déployeurs d'IA : Organisations utilisant des systèmes d'IA tiers dans leurs opérations (recrutement, détection de fraude, service client)

  • Secteurs réglementés : Santé, finance, entités gouvernementales soumises aux réglementations sur l'IA (AI Act de l'UE, lois à venir)

  • Utilisateurs d'IA à haut risque : Organisations utilisant l'IA pour des décisions critiques (embauche, prêt, maintien de l'ordre, diagnostic médical)

  • Entreprises tournées vers la conformité : Entreprises cherchant à démontrer une gouvernance responsable de l'IA à leurs parties prenantes

Bien qu'elle soit volontaire aujourd'hui, l'ISO 42001 est positionnée pour devenir une exigence de conformité à mesure que les réglementations sur l'IA parviennent à maturité au niveau mondial.

Structure de l'ISO 42001

La norme suit la structure cadre des systèmes de management de l'ISO (Annexe SL) avec des adaptations spécifiques à l'IA :

Clauses principales (4-10) :

  • Clause 4 : Contexte de l'organisation (parties prenantes de l'IA, principes éthiques, paysage juridique)

  • Clause 5 : Leadership (rôles de gouvernance de l'IA, responsabilité)

  • Clause 6 : Planification (évaluation des risques liés à l'IA, objectifs)

  • Clause 7 : Support (compétences, sensibilisation, communication)

  • Clause 8 : Réalisation (contrôles du cycle de vie du système d'IA)

  • Clause 9 : Évaluation des performances (surveillance, audit, revue)

  • Clause 10 : Amélioration

Annexe A : 39 contrôles spécifiques à l'IA + références aux contrôles de sécurité de l'ISO 27002

Principes fondamentaux de l'IA

L'ISO 42001 intègre les principes d'IA responsable dans les pratiques de gestion :

  • Transparence : Explicabilité des décisions d'IA, divulgation de l'utilisation de l'IA

  • Équité : Détection et atténuation des biais, résultats équitables

  • Responsabilité : Propriété claire, supervision humaine, pistes d'audit

  • Robustesse : Fiabilité, sécurité, sûreté dans des conditions variables

  • Confidentialité : Protection des données, consentement, minimisation

  • Sécurité : Atténuation des risques de dommages physiques et psychologiques

  • Bien-être sociétal : Impact environnemental, accessibilité, bénéfice sociétal

Les organisations doivent définir leur propre politique d'IA intégrant les principes pertinents en fonction du contexte et des attentes des parties prenantes.

Évaluation des risques de l'IA

L'ISO 42001 exige un processus structuré d'évaluation des risques de l'IA abordant :

Impact sur les individus :

  • Discrimination ou biais dans les décisions automatisées

  • Violations de la vie privée issues du traitement des données

  • Dommages psychologiques résultant des interactions avec l'IA

  • Perte d'autonomie ou manipulation

Impact sur les organisations :

  • Atteinte à la réputation suite à des défaillances de l'IA

  • Responsabilité juridique (amendes réglementaires, poursuites)

  • Perturbation opérationnelle due à la dérive du modèle ou à des attaques adverses

  • Risques liés aux fournisseurs d'IA tiers

Impact sur la société :

  • Coûts environnementaux (consommation d'énergie de l'entraînement)

  • Déplacement d'emplois ou impacts sur la main-d'œuvre

  • Désinformation ou deepfakes

  • Érosion de la confiance envers les institutions

Les niveaux de risque déterminent la rigueur des contrôles appliqués (les systèmes d'IA à haut risque nécessitent une documentation, des tests et une supervision humaine plus approfondis).

L'AI Act de l'UE classe certains usages de l'IA comme « à haut risque » (ex : recrutement, notation de crédit, maintien de l'ordre). L'ISO 42001 aide les organisations à se préparer à la conformité à ces réglementations.

Contrôles du cycle de vie de l'IA

Les contrôles de l'Annexe A couvrent l'ensemble du cycle de vie du système d'IA :

Conception et développement :

  • Définition des objectifs et des exigences du système d'IA

  • Évaluation de la qualité et de la provenance des données

  • Tests de biais et évaluation de l'équité

  • Validation du modèle et tests de performance (benchmarks)

  • Mécanismes d'explicabilité

Déploiement :

  • Évaluation d'impact avant déploiement

  • Mécanismes d'intervention humaine (human-in-the-loop)

  • Formation et communication pour les utilisateurs

  • Avis de transparence (divulgation de l'utilisation de l'IA)

Exploitation et surveillance :

  • Surveillance continue des performances (précision, détection de dérive)

  • Réponse aux incidents pour les défaillances de l'IA

  • Boucles de rétroaction et réentraînement du modèle

  • Journalisation et pistes d'audit

Retrait :

  • Suppression ou archivage des données

  • Communication aux utilisateurs concernés

  • Rétention des connaissances pour les futurs systèmes

Principales exigences documentaires

La certification ISO 42001 nécessite des informations documentées, notamment :

  • Politique du système de management de l'IA : Engagement de la direction pour une IA responsable

  • Évaluation des risques de l'IA : Identification et évaluation des risques spécifiques à l'IA

  • Objectifs d'IA : Objectifs mesurables pour la performance, l'équité, la transparence

  • Inventaire des systèmes d'IA : Catalogue de tous les systèmes d'IA concernés avec classification des risques

  • Évaluations d'impact : Analyse détaillée pour les systèmes d'IA à haut risque

  • Plans de gestion des données : Sourcing des données, étiquetage, assurance qualité, lignage

  • Fiches de modèle (Model cards) / documentation : Utilisation prévue, limites, métriques de performance, résultats des tests de biais

  • Enregistrements de validation et de test : Preuves de tests d'équité, tests adverses, benchmarks de performance

  • Rapports d'incidents : Défaillances de l'IA, actions de remédiation, enseignements tirés

  • Enregistrements de formation : Formation à l'éthique et à la gouvernance de l'IA pour le personnel

Relation avec d'autres normes

L'ISO 42001 s'intègre aux cadres existants :

  • ISO 27001 : Les contrôles de sécurité de l'information s'appliquent à l'infrastructure du système d'IA (l'Annexe A fait référence à l'ISO 27002)

  • ISO 27701 : Contrôles de confidentialité pour les données personnelles traitées par l'IA

  • ISO 22301 : Continuité d'activité pour les opérations dépendantes de l'IA

  • ISO 9001 : Management de la qualité pour les sorties de l'IA

  • Secteurs spécifiques : ISO 13485 (dispositifs médicaux), ISO 26262 (automobile), AS9100 (aérospatial) pour l'IA dans les produits réglementés

Les organisations certifiées ISO 27001 peuvent s'appuyer sur l'infrastructure de leur SMSI pour l'ISO 42001 (revue de direction partagée, processus d'audit, systèmes documentaires).

Processus de certification

L'obtention de la certification ISO 42001 suit un parcours similaire à celui de l'ISO 27001 :

  1. Analyse des écarts (1-2 mois) : Évaluer la maturité actuelle de la gouvernance de l'IA par rapport à l'ISO 42001

  2. Conception du SMIA (2-4 mois) : Définir le périmètre, établir la politique d'IA, réaliser l'évaluation des risques liés à l'IA, élaborer l'inventaire des systèmes d'IA

  3. Mise en œuvre (4-12 mois) : Déployer les contrôles, documenter les procédures, former le personnel, collecter les preuves

  4. Audit interne : Tester l'efficacité des contrôles

  5. Revue de direction : La direction évalue la performance du SMIA

  6. Audit d'étape 1 (revue documentaire) : Un auditeur externe examine la documentation du SMIA

  7. Audit d'étape 2 (revue de l'implémentation) : Un auditeur externe teste les contrôles du cycle de vie de l'IA

  8. Certification : Certificat délivré pour 3 ans avec audits de surveillance annuels

Comme il s'agit d'une norme nouvelle (publiée fin 2023), le marché des auditeurs est encore en développement. Les grands organismes de certification (BSI, SGS, TÜV, DNV) commencent à proposer des audits ISO 42001.

L'ISO 42001 est particulièrement précieuse si vous êtes soumis à l'AI Act de l'UE, si vous développez des modèles de fondation ou si vous vendez des services d'IA à des secteurs réglementés (santé, finance, gouvernement).

Alignement avec l'AI Act de l'UE

L'ISO 42001 répond à de nombreuses exigences de l'AI Act de l'UE :

  • Classification des risques : Aide à identifier les systèmes d'IA « à haut risque » selon les définitions de l'UE

  • Évaluations de la conformité : Les preuves de contrôle peuvent soutenir le marquage CE pour l'IA à haut risque

  • Transparence : Exigences de divulgation pour l'utilisation de l'IA

  • Supervision humaine : Mécanismes d'intervention humaine (human-in-the-loop)

  • Gouvernance des données : Qualité des données d'entraînement et documentation

  • Tenue de registres : Journalisation et pistes d'audit

Bien que la certification ISO 42001 ne soit pas imposée par l'AI Act de l'UE, elle offre une voie structurée pour démontrer la conformité.

Comment ISMS Copilot vous aide

ISMS Copilot peut vous assister dans la préparation de l'ISO 42001 :

  • Génération de politiques : Créer des politiques de système de management de l'IA traitant de la transparence, de l'équité et de la responsabilité

  • Cadres d'évaluation des risques : Développer des modèles d'évaluation des risques spécifiques à l'IA (biais, sécurité, confidentialité)

  • Documentation des contrôles : Générer des procédures pour les contrôles du cycle de vie de l'IA (qualité des données, validation de modèle, surveillance)

  • Modèles d'évaluation d'impact : Créer des modèles pour les évaluations d'impact de l'IA avant déploiement

  • Conseils généraux sur la gouvernance de l'IA : Posez des questions sur les principes d'IA responsable, les techniques d'explicabilité ou les tendances réglementaires

Bien qu'ISMS Copilot ne dispose pas encore de connaissances dédiées exclusivement à l'ISO 42001, vous pouvez poser des questions générales sur les meilleures pratiques de gestion des risques et de gouvernance de l'IA.

Essayez de demander : « Crée une politique de gouvernance de l'IA traitant des biais et de la transparence » ou « Que dois-je inclure dans une évaluation d'impact de l'IA ? »

Commencer

Pour préparer l'ISO 42001 avec ISMS Copilot :

  1. Créez un espace de travail dédié pour votre projet ISO 42001

  2. Faites l'inventaire de tous les systèmes d'IA de votre organisation (développés, fournis ou utilisés)

  3. Classez les systèmes d'IA par niveau de risque (risque élevé, risque limité, risque minimal)

  4. Réalisez une évaluation des risques spécifique à l'IA traitant des biais, de la transparence, de la sécurité et de la confidentialité

  5. Utilisez l'IA pour générer une politique de système de management de l'IA

  6. Élaborez des procédures pour les étapes du cycle de vie de l'IA à haut risque (gouvernance des données, validation de modèle, surveillance, réponse aux incidents)

  7. Documentez des fiches de modèle (model cards) pour chaque système d'IA (usage prévu, limites, performance, tests de biais)

  8. Identifiez les lacunes dans les contrôles ISO 27001 existants qui nécessitent des améliorations spécifiques à l'IA

Ressources associées

  • Norme officielle ISO 42001:2023 (à acheter auprès de l'ISO ou des organismes nationaux de normalisation)

  • Texte officiel de l'AI Act de l'UE (règlement 2024/1689)

  • NIST AI Risk Management Framework (guide complémentaire des États-Unis)

  • Répertoires des organismes de certification (BSI, SGS, TÜV pour les audits ISO 42001)

Cela vous a-t-il été utile ?