Modération du contenu et sécurité - ISMS Copilot
ISMS Copilot utilise une modération de contenu automatisée pour détecter et prévenir les contenus inappropriés ou trompeurs dans les messages de chat. Ce processus s'exécute en arrière-plan afin de maintenir un environnement sûr et conforme pour tous les utilisateurs, tout en préservant votre confidentialité et la rapidité de vos flux de travail.
La modération s'effectue de manière asynchrone après l'envoi de votre message — elle n'ajoute aucune latence à votre expérience de chat.
Comment fonctionne la modération
Lorsque vous envoyez un message, ISMS Copilot l'enregistre immédiatement et délivre votre réponse IA sans délai. En parallèle, une vérification de modération du contenu s'exécute en arrière-plan :
Analyse du message — Votre message est envoyé à une API de modération (OpenAI par défaut, Mistral AI pour les utilisateurs de la Protection Avancée des Données)
Vérification des catégories — L'API recherche des violations de politique, notamment les discours de haine, le harcèlement, la violence, l'automutilation et autres contenus nuisibles
Enregistrement du résultat — Le résultat de la modération est stocké dans nos journaux d'audit avec les scores de catégorie et les horodatages
Alerte aux administrateurs — Si un contenu est signalé, notre équipe reçoit une alerte automatisée pour examen
Ce processus est entièrement automatisé et s'exécute de manière autonome — votre conversation se poursuit sans interruption.
Fournisseurs de modération
ISMS Copilot utilise différentes API de modération en fonction de vos paramètres de protection des données :
API de modération OpenAI — Par défaut pour tous les utilisateurs. Vérifie : contenu sexuel, haine, harcèlement, violence, automutilation
API de modération Mistral AI — Utilisée lorsque la Protection Avancée des Données est activée. Vérifie : contenu sexuel, haine et discrimination, violence et menaces, contenu dangereux et criminel, automutilation, santé, finance, juridique, informations personnelles identifiables (PII)
Les catégories de Mistral incluent des vérifications en matière de santé, de finance, de droit et de PII. Celles-ci peuvent occasionnellement signaler des discussions légitimes sur la conformité ISMS. Notre équipe examine toutes les alertes pour éviter les faux positifs.
Protection avancée des données et modération
Si vous avez activé la Protection Avancée des Données, vos messages de chat ne sont normalement pas stockés sur nos serveurs ni envoyés à des fournisseurs d'IA tiers. Cependant, la modération du contenu crée une exception :
Messages sains — Le contenu du message n'est PAS stocké ; seuls les métadonnées et les scores de modération sont conservés pendant 30 jours
Messages signalés — Le contenu complet est toujours stocké pendant 1 an et inclus dans les alertes d'administration, quel que soit le paramètre ADP
Dérogation de sécurité : Le contenu signalé est toujours stocké et partagé avec notre équipe, même avec la Protection Avancée des Données activée. Cela est nécessaire pour la conformité légale, la prévention des abus et le maintien de la sécurité de la plateforme pour tous les utilisateurs.
Cette dérogation est basée sur l'intérêt légitime au titre de l'article 6(1)(f) du RGPD — la prévention des dommages et l'application de notre Politique d'utilisation acceptable constituent un intérêt légitime qui prévaut sur les préférences individuelles de protection des données dans les cas signalés.
Rétention des données
Les événements de modération sont conservés selon le calendrier suivant :
Événements non signalés — Les métadonnées et les scores de modération sont conservés pendant 30 jours ; le contenu du message n'est PAS stocké
Événements signalés — Le contenu complet du message et les métadonnées sont conservés pendant 1 an à des fins d'audit et de conformité légale
Le contenu d'un message signalé peut être conservé plus longtemps si cela est requis par des enquêtes en cours, des procédures judiciaires ou des obligations réglementaires.
Que se passe-t-il lorsqu'un contenu est signalé ?
Lorsque l'API de modération signale votre message comme violant potentiellement nos politiques :
Alerte envoyée — Notre équipe administrative reçoit une notification webhook avec les catégories signalées, l'horodatage et un aperçu du message
Examen humain — Un membre de l'équipe examine le message et le contexte pour confirmer s'il viole notre Politique d'utilisation acceptable
Action (si confirmée) — Nous pouvons vous contacter, émettre un avertissement, suspendre des fonctionnalités ou résilier votre compte selon la gravité et la répétition des violations
Faux positifs — Si le signalement était incorrect (par exemple, une discussion légitime sur la conformité), aucune mesure n'est prise
Limitation du débit : Vous ne pouvez déclencher qu'une seule alerte de modération par heure. Les messages signalés ultérieurement au cours de cette période sont enregistrés mais ne génèrent pas d'alertes redondantes.
Confidentialité et transparence
Nous nous engageons à la transparence concernant nos pratiques de modération :
Pas de censure silencieuse — Nous ne bloquons ni ne filtrons vos messages en temps réel. La modération sert à l'application de la sécurité, pas au contrôle du contenu
Sous-traitants tiers — OpenAI (basé aux États-Unis) et Mistral AI (basé en France) agissent en tant que sous-traitants uniquement pour la modération. Consultez notre Registre des activités de traitement pour plus de détails
Divulgation complète — Cette politique et notre Politique de confidentialité documentent tous les flux de données de modération et leurs bases juridiques
Base légale
La modération du contenu est basée sur :
Intérêt légitime (RGPD Art. 6(1)(f)) — Prévenir les abus, faire respecter nos conditions et maintenir la sécurité de la plateforme
Nécessité contractuelle (RGPD Art. 6(1)(b)) — Appliquer nos Conditions d'utilisation et notre Politique d'utilisation acceptable
Obligation légale (RGPD Art. 6(1)(c)) — Se conformer aux lois applicables exigeant la suppression ou le signalement de contenus illégaux
Vos droits
En vertu du RGPD, vous disposez de droits concernant vos données de modération :
Accès — Demander des copies des événements de modération associés à votre compte
Rectification — Demander la correction de dossiers de modération inexacts
Effacement — Demander la suppression des données de modération non signalées (les données signalées peuvent être conservées pour conformité légale)
Opposition — Vous opposer au traitement de modération, bien que nous puissions continuer si nous avons des motifs légitimes impérieux (sécurité, obligations légales)
Pour exercer vos droits ou poser des questions sur la modération, contactez-nous à [email protected].
Des questions ?
Pour plus d'informations sur nos pratiques de confidentialité et de sécurité, consultez :