Retour au blogSécurité de l'IA

Le paradoxe de l'extension de confidentialité...

67 % des extensions Chrome AI collectent des données utilisateur. Les incidents de décembre 2025 ont vu 900K utilisateurs compromis par des...

April 19, 20268 min de lecture
privacy extension verificationlocal processing trustextension data collection auditAI privacy tool evaluationChrome extension security checklist

L'inversion de confiance

Les incidents des extensions Chrome de décembre 2025 et janvier 2026 ont créé une crise de confiance spécifique au marché des extensions de confidentialité AI. Les extensions qui se positionnaient comme des outils de protection de la vie privée pour les conversations AI — leur principale revendication marketing était de protéger les données des utilisateurs — ont été découvertes comme des outils de surveillance, capturant l'historique complet des conversations et les transmettant à des serveurs contrôlés par des attaquants.

L'analyse de Caviard.ai a révélé que 67 % des extensions Chrome AI collectent activement des données utilisateur. Ce chiffre inclut à la fois la collecte d'analytique divulguée (extensions qui déclarent la collecte de données dans leurs politiques de confidentialité) et la collecte non divulguée (extensions qui prétendent ne pas collecter de données mais le font). La distinction significative pour les utilisateurs qui ont installé ces extensions spécifiquement pour la protection de la vie privée n'est pas la divulgation — c'est de savoir si l'architecture de l'extension rend l'exfiltration de données structurellement impossible, ou simplement interdite par la politique.

Le rapport annuel RGPD 2025 de DLA Piper a documenté une augmentation de 34 % des montants moyens des amendes RGPD en 2024 par rapport à 2023. L'environnement d'application crée des enjeux financiers pour les DPO approuvant le déploiement d'extensions de navigateur : une extension qui exfiltre les historiques de conversation AI des employés contenant des données clients expose l'organisation à la même trajectoire d'application que tout autre transfert de données personnelles non autorisé.

Le cadre d'évaluation

La question de vérification pour toute extension de confidentialité AI n'est pas "le fournisseur promet-il de protéger mes données ?" mais "puis-je vérifier que l'architecture de l'extension rend l'exfiltration de données structurellement impossible ?"

Test de surveillance du réseau : Déployez l'extension dans un environnement réseau surveillé. Générez un trafic représentatif — collez un contenu contenant des PII simulées dans un compte ChatGPT de test. Surveillez toutes les connexions réseau sortantes pendant les 30 secondes entourant l'événement de collage. Si une connexion réseau se produit vers un domaine autre que la plateforme AI et les serveurs de mise à jour de l'éditeur de l'extension, l'extension achemine le trafic via un tiers.

Vérification du code source : Les extensions Chrome sont des bundles JavaScript qui peuvent être décompilés. Une extension prétendant traiter localement ne devrait avoir aucun appel réseau dans son chemin de détection des PII. L'absence d'appels XMLHttpRequest, fetch ou WebSocket dans le module de détection est un signal positif ; leur présence est un signal disqualifiant.

Analyse des autorisations : Le manifeste Chrome V3 exige des déclarations d'autorisation explicites. Une extension prétendant traiter localement ne devrait pas demander d'autorisations pour accéder aux données à transmettre à des serveurs externes. La combinaison d'un accès au presse-papiers et d'autorisations réseau externes sans justification claire est un signal d'alerte.

Vérification de l'éditeur : Le statut "éditeur vérifié" du Chrome Web Store nécessite une vérification de domaine et une documentation d'identité. Les éditeurs non vérifiés avec des domaines récemment enregistrés publiant des outils de confidentialité AI méritent une attention accrue compte tenu du schéma documenté des extensions malveillantes utilisant des identités d'éditeur à courte durée de vie.

Ce que signifie réellement le traitement local

Une extension avec une architecture de traitement local authentique exécute le modèle de détection des PII entièrement dans l'environnement d'exécution JavaScript du navigateur ou via un binaire local appelé par messagerie native. Les poids du modèle sont regroupés avec l'extension (augmentant la taille d'installation) ou téléchargés une fois lors de l'installation. Pendant l'opération, aucun contenu n'est transmis aux serveurs de l'éditeur à aucun moment dans le pipeline de détection ou d'anonymisation.

Le seul trafic sortant dans une extension de traitement réellement local est l'invite anonymisée allant vers la plateforme AI et les requêtes standard du navigateur (vérifications de mise à jour, analyses du Web Store). Le contenu ne traverse jamais l'infrastructure de l'éditeur.

Cette architecture peut être documentée, vérifiée et audité. C'est la propriété architecturale qui rend les revendications de confidentialité indépendamment vérifiables plutôt que de nécessiter une confiance dans les assurances de l'éditeur — ce que les incidents de décembre 2025 et janvier 2026 ont démontré comme étant une base de confiance insuffisante dans cette catégorie.

Sources :

Prêt à protéger vos données ?

Commencez à anonymiser les PII avec plus de 285 types d'entités dans 48 langues.