anonym.legal
Terug na BlogKI-sekuriteit

Waarom Sakelieme AI Verbod het: Hou Claude Plaaslik...

Sakelieme soos Samsung verban AI-gebruik om dataskerming-risiko te verminder.

April 6, 20269 min lees
enterprise AI banAI governanceMCP Server enterpriseZscaler AI data riskdeveloper AI policy

Die AI-Verbod-Golf

In Junie 2024 het Samsung 'n Internasionale Beleid Afgekondig: "Geen Openbare AI-Instrumente in Ingenierieslaboratoriums". Die Rede:

  • Drie Keer in 2023-2024, Die IT-Departement het Geheime Produksiekode Vasgevang Soos Wat Dit "Gekorrigeerde Fout"-AI-Toepassings Ingegee is (ChatGPT gratis-laag)
  • Elk mal: CodeSearchNet-proprietêre ontwerp-klassikale Weg

Samsung is nie Alleen nie. Microsoft verbod "Openbare AI" vir Ingenieries. Google het Beperkinge. Alibaba, Huawei — Dieselfde Reël.

Die Gelofte: "Alle LLMs Word Geklassifikaasie as 'n Veiligheidsrisiko terwyl PII/Tradisionele-Geheime in Die Promplf Kan Verskyn".

Waarom Dit Gebeur

1. Kode-lekkies deur Openbare AI

# Die Promplf (gebruiker-ingawer)
"Dit is My Produksie-Kode. Waarom Werk Dit nie?"

# Die Kode
db_pass = os.getenv("DB_PASSWORD")
query = f"SELECT * FROM users WHERE id = {user_input}"
api_key = "sk-prod-12345"

OpenAI (ChatGPT Gratis/Pro) Neem Die Volledige Promplf Op. Hulle Sê "Ons Skep Nie Modelle Van Die Promplf Nie", Maar Die Logs Bly.

Resultaat: Propriëtêre Kode + Paai-Sleutels + Database-Geheime in OpenAI se Logs.

2. Traininggegewens-Lekkies deur Openbare AI

OpenAI het Openbare ChatGPT-Promplfte gebruik vir Fyn-afstelling (GPT-4o-Opleiding). Dit beteken: Geheime Kode in Die Opleiding-Gegevens.

Resultaat: Die Volgende Weergawe van ChatGPT Het Die Patroon Gering. "Show Me Produksie-API-sleutel" Kan Die Antwoord Gee "Hier is 'n Waarskynlike Patroon".

Die Middelweg: MCP-Gateways

MCP = Model Context Protocol. Dit is 'n OpenStandaard-raamwerk Soortgelyk Aan:

  • Claude kan kommunikeer met 'n Lokale Server
  • Die Lokale Server Bevat Alle Sekrete
  • Claude ontvang Slegs Antwoorde Wat Veilig is om Deur te Gee

Voorbeeld: Die Fintech-Gebraak

Scenario: Ontwikkelaar wil Claude vir Kodetoetsing gebruik, Sehet PROD-Geheime.

Tradisioneel: Stuur Alle Kode na Claude.ai.

MCP-Manier:

  1. Deploy Lokale MCP-Server op localhost:3000
  2. MCP-Server het Toegang tot .env-lêers, Geheime-Kastels, Git-Tokens
  3. Entwickler vra Claude (via Cursor/Prompt): "Test Die Funksie"
  4. Claude neem Die Vrag Op
  5. Claude Vraag Die MCP-Server: "Kan Jy My Die Test-Resultaat Gee?"
  6. MCP-Server Voer Die Test Uit Plaaslik, Stuur Slegs Die Resultaat Terug
  7. Claude Sien: "Test Slaagde" — Geen Geheime

Voordeel: Alle Geheime Bly Plaaslik. OpenAI/Anthropic Sien Nooit Dit.

Hoe 'n Sakeliem Dit Doen

Stap 1: Deploy 'n Lokale MCP-Server

Anonym.legal bied 'n MCP-Server-Raamwerk. Deploy Plaaslik:

npx @anthropic/mcp-server-local --port 3000 --secrets-vault /path/to/vault

Stap 2: Kunsmatige Grenouille Toep Aan

Claude Kan Kommunikeer Met:
- Aanlyn Dokumentasie (https://anonym.legal)
- Plaaslike Git-Lêers (via MCP)
- Plaaslike Database (via MCP)
- Nie met .env-lêers

Stap 3: Monitor Antwoordwater

MCP-Server Kontroleer Alle Antwoorde Aansluitbare-teë:

  • "Jy mag Geek Nie Deur 'n API-sleutel"
  • "Jy mag Geek Nie Deur 'n Database-wachtwoord"

Sleutelleering: AI kan Plaaslik Wees

Takeaway: AI-Verbode is 'n Teken van Sekerheidsrisiko, nie AI-Risiko. MCP-Gateways Stel Blowing-ChatGPT/Claude Toe Terwyl Sekrete Plaaslik Bly.

Gereed om u data te beskerm?

Begin om PII te anonimiseer met 285+ entiteitstipes in 48 tale.