En mars 2025, Samsung a interdit l'usage de ChatGPT à ses employés après que des ingénieurs y ont collé du code source confidentiel. En Italie, le Garante della Privacy a temporairement banni ChatGPT pour non-conformité au RGPD. Aux États-Unis, des avocats ont été sanctionnés pour avoir soumis des données clients à des IA sans précaution.
Le problème n'est pas l'IA en elle-même. C'est l'absence de garde-fou entre l'utilisateur et le modèle. Quand vous tapez un message dans ChatGPT ou Claude, il part tel quel sur les serveurs du fournisseur. Si ce message contient un numéro de Sécurité sociale, une adresse email ou un secret industriel, ces données sont exposées.
Moon Guard est la réponse technique à ce problème. Pas une politique de confidentialité en petits caractères — un système qui agit concrètement, en temps réel, avant que vos données ne quittent votre navigateur.
Ce que Moon Guard détecte
Moon Guard identifie plus de 50 catégories de données personnelles et sensibles. Pas uniquement les évidentes comme les emails ou les numéros de téléphone. Le système reconnaît :
- Identité — noms, prénoms, pseudonymes, dates de naissance
- Contact — emails, téléphones (formats internationaux), adresses postales
- Finance — numéros de carte bancaire (Visa, Mastercard, Amex), IBAN, BIC, montants identifiables
- Identifiants officiels — numéro de Sécurité sociale, SIRET, SIREN, numéro de TVA, passeport
- Santé — termes médicaux associés à des personnes identifiables
- Technique — adresses IP, tokens d'API, clés SSH, mots de passe en clair
- Entreprise — noms de projets internes, identifiants clients, données contractuelles
La détection utilise une combinaison de patterns regex, d'analyse contextuelle et de modèles de classification légers qui tournent côté client. Ce n'est pas une simple recherche par mots-clés — le système comprend le contexte pour distinguer un numéro de téléphone d'un numéro de commande.
Les 5 couches de protection
Moon Guard ne se contente pas de détecter les données sensibles. Il les traite en cinq étapes successives, chacune renforçant la précédente :
Couche 1 — Détection. Analyse en temps réel du message saisi par l'utilisateur. Chaque fragment de texte est scanné pour identifier les PII (Personally Identifiable Information). La détection fonctionne en local, dans le navigateur.
Couche 2 — Classification. Chaque donnée détectée est catégorisée par type (email, téléphone, IBAN...) et par niveau de sensibilité. Un email professionnel générique et un numéro de carte bancaire ne sont pas traités avec la même priorité.
Couche 3 — Tokenisation. Les données sensibles sont remplacées par des tokens anonymes au format cohérent. Un email devient [EMAIL_TOKEN_7f3a], un numéro de téléphone devient [PHONE_TOKEN_2b1c]. Les tokens sont conçus pour que le modèle d'IA puisse quand même comprendre la structure du message — il sait qu'il y a un email à cet endroit, mais il ne sait pas lequel.
Couche 4 — Injection de leurres. Pour renforcer la protection, Moon Guard injecte de fausses données dans le même format. Le modèle d'IA reçoit un mix de tokens anonymes et de leurres crédibles, rendant toute tentative de reconstruction impossible côté serveur.
Couche 5 — Restitution côté client. Quand la réponse revient du modèle d'IA, Moon Guard remplace les tokens par les vraies données — mais uniquement dans votre navigateur. Le serveur ne voit jamais les données originales. Le résultat est une conversation parfaitement lisible, comme si rien ne s'était passé.
Ce que font les autres plateformes
Pour situer Moon Guard, voici comment les principales plateformes IA gèrent vos données :
ChatGPT (OpenAI) — Par défaut, vos conversations peuvent être utilisées pour entraîner les modèles. Il est possible de désactiver cette option, mais vos données transitent quand même en clair vers les serveurs d'OpenAI aux États-Unis. Rétention des données : 30 jours minimum pour la détection d'abus.
Claude (Anthropic) — Politique plus stricte : Anthropic ne réutilise pas les données des API commerciales pour l'entraînement. Mais les messages transitent en clair. Rétention variable selon le plan.
Gemini (Google) — Les conversations de la version gratuite peuvent être relues par des opérateurs humains pour améliorer le service. La version API (Vertex AI) offre plus de garanties, avec traitement possible dans l'UE.
Moon AI avec Moon Guard — Les fournisseurs ne reçoivent jamais les données personnelles en clair. Politique Zero Data Retention imposée contractuellement à tous les fournisseurs (OpenAI, Anthropic, Google, OpenRouter, Fireworks AI). Hébergement OVHcloud en France.
Pourquoi c'est un sujet juridique autant que technique
Le RGPD impose aux entreprises européennes de protéger les données personnelles qu'elles traitent. Quand un salarié colle des données clients dans un outil IA, l'entreprise reste responsable au sens de l'article 5 du règlement — même si la fuite vient de l'outil tiers.
Les sanctions sont réelles : jusqu'à 4 % du chiffre d'affaires annuel mondial ou 20 millions d'euros, selon le montant le plus élevé. Et avec l'entrée en application progressive de l'EU AI Act, les obligations de transparence et de traçabilité des systèmes d'IA se renforcent encore.
Moon Guard ne supprime pas la responsabilité du responsable de traitement. Mais il lui donne un outil technique concret pour démontrer qu'il a mis en place des mesures proportionnées — ce que le RGPD appelle la « privacy by design » (article 25).
Limites et honnêteté
Moon Guard n'est pas infaillible. Aucun système de détection ne l'est. Si vous écrivez un numéro de téléphone en toutes lettres (« zéro six douze... »), la détection sera moins fiable que sur un format standard. Si vous utilisez un identifiant interne propre à votre entreprise, Moon Guard ne le reconnaîtra pas automatiquement — il faudra configurer des règles personnalisées.
Notre approche est d'être transparents sur ces limites plutôt que de prétendre une protection absolue. Moon Guard réduit drastiquement la surface d'exposition de vos données. Il ne la supprime pas à 100 %. Et c'est pour ça qu'il est complété par le chiffrement TLS 1.3, le chiffrement AES-256 au repos, et la politique Zero Data Retention.