Tornar al BlogSeguretat de la IA

Política de ChatGPT sense controls tècnics...

Les empreses que implementen polítiques de "ChatGPT segur" sense controls tècnics (redacció, encriptació) veuen filtracions de dades dins de setmanes.

April 15, 20268 min llegit
ChatGPT PII leak preventionChrome extension DLPenterprise AI policytechnical controls browsercopy-paste PII protection

El cicle de la falsa seguretat

Una empresa implementa una política de "Responsible AI Use":

  1. Workshop de 2 hores per a tots els empleats
  2. Guia escrita sobre "No compartir dades sensibles amb IA"
  3. Certificat en línia per a empleats
  4. Sense controls tècnics

Dins de 2 setmanes, els empleats han filtrat dades sensibles. Per què?

Factors psicològics:

  • Els empleats oblidaran la política
  • Els empleats crearan excepcions per a situacions "especials"
  • Els empleats tindran pressa i prendran dreceres
  • Els empleats no comprenen l'impacte de les filtracions de dades

Case study: Assegurança financera, Q1 2025

  • Política: "No compartir dades de clients amb ChatGPT"
  • Training: Workshop de 2 hores, certificat en línia
  • Realitat: Un agent de suport al client va compartir informació de comptes de 50 clients amb ChatGPT per a procés de suport accelerat
  • Resultat: Les 50 comptes van ser exposades en els logs de ChatGPT. Alguém va descobrir les dades. Notificació de brea de dades, GDPR multa $1.2M.

Solució: Controls tècnics

En lloc de training sense controls:

  1. Proxy intern de IA: Totes les sol·licituds de ChatGPT passen per un proxy intern
  2. Redacció automàtica: Totes les PII es redacten automàticament
  3. Encriptació de dades: Totes les dades es xifren en transit i en repòs
  4. Auditoria: Totes les sol·licituds es registren per a auditoria posterior

Aquesta arquitectura permet que els empleats utilitzin ChatGPT sense exposar dades sensibles.

Preparat per protegir les vostres dades?

Comenceu a anonimitzar PII amb més de 285 tipus d'entitats en 48 idiomes.