Retour au blogSécurité de l'IA

Les 3,8 expositions quotidiennes de PII que votre...

Chaque agent de support utilisant ChatGPT effectue en moyenne 3,8 collages de données sensibles par jour.

April 18, 20268 min de lecture
accidental PII exposuresupport team ChatGPTCyberhaven 3.8 pastesworkflow PII protectionGDPR daily exposure

Les Mathématiques de l'Exposition Quotidienne

La recherche de Cyberhaven a révélé que les employés d'entreprise effectuent en moyenne 3,8 collages de données sensibles dans ChatGPT par utilisateur et par jour. Pour une équipe de support client de 100 personnes, ce chiffre se traduit par 380 instances de données sensibles entrant dans ChatGPT chaque jour — chaque instance pouvant constituer une violation de minimisation des données GDPR en vertu de l'Article 5(1)(c), qui exige que les données personnelles soient "adéquates, pertinentes et limitées à ce qui est nécessaire."

Le chiffre de 3,8 n'est pas un chiffre pour les employés qui ignorent la politique. Il reflète un comportement de flux de travail ordinaire : les agents copient la correspondance des clients pour rédiger des réponses, collent le texte des plaintes pour générer des suivis empathiques, incluent des détails de compte pour obtenir des suggestions contextuelles. Chaque collage est une action de productivité légitime qui inclut par inadvertance des données personnelles. L'employé n'a pas décidé d'exposer les données des clients ; l'exposition était un sous-produit de la décision d'utiliser un outil d'IA de manière efficace.

Un audit de l'UE en 2024 a révélé que 63 % des données des utilisateurs de ChatGPT contenaient des informations personnellement identifiables. Seuls 22 % des utilisateurs savaient qu'ils pouvaient se désinscrire de la collecte de données via les paramètres de ChatGPT. La combinaison — la plupart des données contiennent des PII, la plupart des utilisateurs ne sont pas conscients des contrôles — produit une exposition systématique quotidienne à grande échelle dans toute organisation qui n'a pas mis en œuvre de contrôles techniques.

Pourquoi le Comportement Ne Peut Pas Être Éliminé par la Formation

Le flux de travail de copier-coller est profondément habituel. Les utilisateurs copient et collent du texte comme interaction fondamentale avec l'ordinateur depuis des décennies. L'ajout d'un chatbot IA comme destination pour le texte collé n'a pas changé le comportement sous-jacent ; il a étendu un modèle établi à une nouvelle cible.

La formation sur la politique qui dit "ne pas coller de PII client dans ChatGPT" exige que les employés insèrent une décision de classification — "ce texte contient-il des PII ?" — dans une action habituelle qui n'inclut pas naturellement une pause. L'effet de formation diminue à mesure que le comportement revient à l'habitude. Chaque décision de collage individuelle est une micro-décision à faible enjeu ; l'effet cumulatif de 380 décisions quotidiennes est un risque systématique de conformité que la formation sur la politique ne peut pas traiter de manière fiable.

La solution technique opère au niveau où l'habitude se forme : l'action de collage elle-même. L'extension Chrome intercepte le contenu du presse-papiers au moment du collage, avant que le contenu n'atteigne le champ de saisie. L'interception n'est pas une barrière d'application de la politique (les utilisateurs peuvent toujours contourner) — c'est un outil de transparence. La fenêtre d'aperçu montre à l'employé ce qui a été détecté, lui donnant un moment de visibilité sur la décision de classification avant de continuer.

Pour le responsable de l'équipe de support d'une entreprise de commerce électronique allemande rédigeant des réponses aux plaintes des clients : le flux de travail reste "copier la plainte, coller dans ChatGPT, générer une réponse." L'extension Chrome ajoute une pause de 2 secondes où l'agent voit que des noms, adresses et numéros de commande ont été détectés et seront anonymisés avant soumission. L'agent clique sur continuer. Le flux de travail se poursuit. La violation de conformité ne se produit pas.

Sources :

Prêt à protéger vos données ?

Commencez à anonymiser les PII avec plus de 285 types d'entités dans 48 langues.