Retour au blogSécurité de l'IA

900,000 utilisateurs compromis : Comment choisir une...

En janvier 2026, deux extensions Chrome malveillantes avec plus de 900 000 utilisateurs ont été prises en train d'exfiltrer des conversations...

March 8, 20268 min de lecture
Chrome extension securitymalicious extensionChatGPT privacyAI data protection

L'incident de janvier 2026

En janvier 2026, des chercheurs en sécurité ont découvert deux extensions Chrome malveillantes qui avaient compromis plus de 900 000 utilisateurs.

Les noms des extensions avaient été délibérément choisis pour sembler être des outils d'amélioration AI légitimes :

  • "Chat GPT pour Chrome avec GPT-5, Claude Sonnet & DeepSeek AI" — plus de 600 000 utilisateurs
  • "AI Sidebar avec Deepseek, ChatGPT, Claude et plus" — plus de 300 000 utilisateurs

Les deux extensions faisaient la même chose : exfiltrer des conversations complètes de ChatGPT et DeepSeek toutes les 30 minutes vers un serveur de commande et de contrôle distant.

Les données qui s'échappaient comprenaient le code source, des informations personnellement identifiables, des questions juridiques en discussion, des stratégies commerciales et des données financières. Tout ce que les utilisateurs avaient tapé dans leurs sessions de chat AI — tout ce qu'ils considéraient comme privé — était transmis à des parties inconnues.

Comment les extensions ont contourné les signaux de confiance

Les extensions ont demandé la permission de "collecter des données analytiques anonymes et non identifiables" — un langage calculé pour sembler inoffensif lors de l'examen des autorisations.

En réalité, elles capturaient le contenu complet des conversations AI. La permission d'analyse était le véhicule ; l'exfiltration de la conversation AI était la charge utile.

Cette technique — utiliser des autorisations au son inoffensif pour permettre une collecte de données nuisible — représente le manuel opérationnel qui a rendu la catégorie de menace des extensions Chrome si persistante. Les utilisateurs qui n'auraient jamais cliqué sur un lien de phishing ont installé ces extensions délibérément, depuis le Chrome Web Store, parce qu'elles semblaient offrir des avantages de productivité AI.

Le schéma plus large : 67 % des extensions AI collectent vos données

L'incident de janvier 2026 n'était pas un cas isolé. Une recherche d'Incogni a révélé que 67 % des extensions Chrome AI collectent activement des données utilisateur — un chiffre corroboré par plusieurs analyses indépendantes de l'écosystème des extensions.

C'est le paradoxe central du marché des extensions de confidentialité AI : les extensions que les utilisateurs installent spécifiquement pour protéger leur confidentialité AI sont, dans la majorité des cas, celles qui collectent ces mêmes données.

Le marché a créé une catégorie — outils de confidentialité AI pour navigateurs — mais n'a pas créé de mécanismes fiables permettant aux utilisateurs de vérifier si une extension donnée fournit réellement de la confidentialité ou prétend simplement le faire. Le résultat : un marché où l'outil installé pour la protection est lui-même le vecteur d'attaque.

L'architecture qui distingue le sûr de l'insécurisé

L'incident de janvier 2026 illustre une distinction technique spécifique que les utilisateurs devraient comprendre lors de l'évaluation de toute extension Chrome adjacente à l'AI.

Architecture insécurisée — routage via les serveurs de l'extension :

  1. L'utilisateur tape dans ChatGPT
  2. L'extension intercepte le texte
  3. L'extension transmet le texte à son propre serveur backend pour "traitement"
  4. Le serveur backend renvoie le texte traité
  5. L'extension soumet à ChatGPT

Dans cette architecture, chaque invite passe par l'infrastructure du développeur de l'extension. Le développeur de l'extension a un accès complet au contenu de la conversation. Si l'extension est malveillante (ou est ensuite acquise par un acteur malveillant, ou est compromise), tout ce contenu est exposé.

Architecture sécurisée — traitement local uniquement :

  1. L'utilisateur tape dans ChatGPT
  2. L'extension intercepte le texte
  3. L'extension traite le texte localement dans le navigateur (en utilisant le même environnement d'exécution JavaScript qui alimente l'extension)
  4. Le texte traité est soumis directement à ChatGPT

Dans cette architecture, rien ne quitte le navigateur de l'utilisateur sauf le texte final traité soumis au service AI. L'infrastructure du développeur de l'extension n'est jamais dans le chemin des données.

La question à poser à toute extension de confidentialité AI : où se fait le traitement ? Si la réponse implique les propres serveurs de l'extension, vos données passent par un tiers.

Cinq questions à poser avant d'installer une extension de confidentialité AI

Étant donné que 67 % des extensions Chrome AI collectent des données utilisateur (recherche d'Incogni), et étant donné que des extensions malveillantes peuvent apparaître sur le Chrome Web Store avec des centaines de milliers d'utilisateurs, le cadre d'évaluation est important.

1. Où est traité la détection de PII ? Demandez directement ou trouvez dans la politique de confidentialité : la détection de PII est-elle effectuée localement dans le navigateur, ou le texte est-il envoyé aux serveurs backend de l'extension pour analyse ? Un traitement local signifie que le développeur de l'extension ne voit jamais votre texte.

2. Que se passe-t-il avec le contenu de la conversation ? Les extensions qui "protègent" en passant par leurs propres serveurs proxy ont un accès complet à tout ce que vous tapez. Les extensions qui modifient le texte localement et soumettent directement au service AI ne le font pas.

3. Qui est l'éditeur vérifié ? Le système de vérification des éditeurs du Chrome Web Store est imparfait — les extensions de janvier 2026 ont passé — mais un éditeur vérifié avec une identité établie et un modèle commercial indépendant de la collecte de données est plus digne de confiance qu'un éditeur anonyme avec une extension gratuite et aucun modèle de revenus apparent.

4. Y a-t-il une certification de sécurité indépendante ? La certification ISO 27001 couvre le système de gestion de la sécurité de l'information du fournisseur, y compris leurs pratiques de développement et de distribution d'extensions. Des audits de sécurité indépendants fournissent une vérification externe des affirmations faites.

5. Quel est le modèle commercial ? Le signal le plus durable : comment ce développeur d'extension gratuite gagne-t-il de l'argent ? S'il n'y a pas de modèle de revenus apparent, les données utilisateur sont probablement le produit. Une extension qui fait partie d'un produit SaaS payant avec un modèle commercial vérifiable a moins d'incitation à monétiser les données utilisateur de manière cachée.

Ce que l'incident de janvier 2026 révèle sur la sécurité AI

Les plus de 900 000 utilisateurs compromis en janvier 2026 n'étaient pas non sophistiqués. Ce étaient des professionnels qui avaient recherché des outils de productivité AI, qui voulaient une protection de la vie privée pour leurs interactions AI, et qui ont installé ce qui semblait être des outils légitimes du Chrome Web Store.

L'attaque a fonctionné parce que :

Les extensions offraient une réelle fonctionnalité : Elles n'étaient pas purement malveillantes — elles fournissaient des fonctionnalités liées à l'AI en plus de l'exfiltration. Cela les rendait fonctionnellement indistinguables des outils légitimes lors d'une utilisation occasionnelle.

Des signaux de confiance ont été fabriqués : Des centaines de milliers d'utilisateurs créent une preuve sociale. Les utilisateurs qui ont vu 600 000 installations étaient plus susceptibles d'installer, pas moins.

La demande d'autorisation était conçue pour ne pas susciter d'inquiétude : "Analytique anonyme et non identifiable" est exactement le genre de langage d'autorisation que les utilisateurs approuvent sans examen.

L'exfiltration était programmée pour minimiser la détection : Des intervalles de 30 minutes sont suffisamment fréquents pour capturer toutes les conversations mais suffisamment rares pour éviter de déclencher une surveillance de sécurité basée sur des anomalies.

Le cadre de confiance post-incident

Suite à l'incident de janvier 2026, les équipes informatiques des entreprises évaluant les extensions de confidentialité AI pour déploiement auprès de leur personnel devraient appliquer un cadre de confiance plus rigoureux que celui qui existait auparavant.

Les éléments minimum requis :

  • Architecture de traitement local — vérifiée par un examen technique ou un audit indépendant, pas seulement revendiquée dans le marketing
  • Vérification de l'identité de l'éditeur — entreprise établie avec un modèle commercial vérifiable et une histoire
  • Certification de sécurité indépendante — ISO 27001 ou équivalent
  • Politique de confidentialité qui aborde spécifiquement les flux de données des extensions — y compris ce qui est collecté, où cela est envoyé et dans quelles circonstances
  • Pas de routage via les serveurs du développeur de l'extension pour la fonctionnalité de confidentialité de base

Les organisations qui déploient des extensions AI à des centaines ou des milliers d'employés devraient également envisager :

  • Des audits réguliers des extensions installées pour le comportement d'exfiltration de données
  • La surveillance du réseau pour détecter des connexions externes inattendues à partir des processus du navigateur
  • Des listes d'approbation des extensions approuvées déployées via la politique Chrome Enterprise

L'incident de janvier 2026 était un avertissement. Le taux de collecte de données de 67 % à travers les extensions AI suggère que l'avertissement était justifié.


L'extension Chrome d'anonym.legal traite la détection de PII localement — aucun contenu de conversation n'est transmis aux serveurs d'anonym.legal pendant la détection de PII. L'anonymisation se produit dans le navigateur avant que l'invite modifiée ne soit soumise au service AI. Publié par anonym.legal, certifié ISO 27001.

Sources :

Prêt à protéger vos données ?

Commencez à anonymiser les PII avec plus de 285 types d'entités dans 48 langues.