Kembali ke BlogKeamanan AI

AI Kini Menjadi Vektor Eksfiltrasi Data #1—Inilah...

77% karyawan menempelkan data sensitif ke alat AI. GenAI kini menyumbang 32% dari seluruh eksfiltrasi data perusahaan.

February 17, 20268 menit baca
AI securityChatGPTdata leakageenterprise security

Krisis Kebocoran Data AI

Pada Oktober 2025, LayerX Security merilis temuan yang seharusnya mengejutkan setiap CISO: 77% karyawan menempelkan data ke alat GenAI, dengan 82% aktivitas tersebut berasal dari akun pribadi yang tidak dikelola.

Yang lebih mengkhawatirkan: GenAI kini menyumbang 32% dari seluruh eksfiltrasi data perusahaan—menjadikannya vektor #1 untuk perpindahan data tidak sah di lingkungan enterprise.

Ini bukan masalah masa depan. Ini terjadi sekarang, setiap hari, di organisasi Anda.

Angka-Angkanya Sangat Mengejutkan

TemuanDataSumber
Karyawan yang menempelkan data ke AI77%LayerX 2025
Eksfiltrasi data melalui alat AI32%LayerX 2025
Penggunaan ChatGPT melalui akun tidak terkelola67%LayerX 2025
Penempelan harian melalui akun pribadi14 per karyawanLayerX 2025
Penempelan yang mengandung data sensitif3+ per hariLayerX 2025

Rata-rata, karyawan melakukan 14 penempelan per hari melalui akun pribadi, dengan setidaknya tiga di antaranya mengandung data sensitif. Alat DLP tradisional, yang dibangun untuk pemantauan berbasis file, bahkan tidak mendeteksi aktivitas ini.

Mengapa Melarang AI Tidak Berhasil

Samsung mencoba melarang ChatGPT setelah karyawan membocorkan kode sumber. Itu tidak berhasil.

Kenyataannya adalah alat AI membuat karyawan jauh lebih produktif. Menurut penelitian, pengembang yang menggunakan asisten AI menyelesaikan tugas 55% lebih cepat. Ketika Anda melarang AI, karyawan akan:

  1. Tetap menggunakannya melalui akun pribadi (67% sudah melakukannya)
  2. Kehilangan produktivitas dan menjadi frustrasi
  3. Pergi ke pesaing yang merangkul AI

Jawabannya bukan larangan—melainkan perlindungan.

Pelanggaran Ekstensi Chrome 900.000 Pengguna

Pada Desember 2025, OX Security menemukan dua ekstensi Chrome berbahaya yang telah mencuri percakapan ChatGPT dan DeepSeek dari lebih dari 900.000 pengguna.

Salah satu ekstensi tersebut memiliki lencana "Featured" dari Google—tanda kepercayaan yang seharusnya.

Ekstensi tersebut bekerja dengan cara:

  • Menyadap percakapan obrolan secara real-time
  • Menyimpan data secara lokal di mesin korban
  • Mengeksfiltrasi data secara batch ke server command-and-control setiap 30 menit

Lebih buruk lagi: penyelidikan terpisah menemukan ekstensi "VPN gratis" dengan lebih dari 8 juta unduhan yang telah menangkap percakapan AI sejak Juli 2025.

Solusinya: Intersep Sebelum Pengiriman

Satu-satunya cara untuk menggunakan AI dengan aman sambil melindungi data sensitif adalah dengan menganonimi PII sebelum mencapai model AI.

Inilah tepatnya yang dilakukan Ekstensi Chrome dan MCP Server dari anonym.legal:

Ekstensi Chrome

  • Menyadap teks sebelum Anda mengirimkannya ke ChatGPT, Claude, atau Gemini
  • Secara otomatis mendeteksi dan menganonimi PII (nama, email, SSN, dll.)
  • Mengganti data sensitif dengan token: "John Smith" → "[PERSON_1]"
  • De-anonimisasi respons AI sehingga Anda melihat nama aslinya

MCP Server (untuk pengembang)

  • Terintegrasi dengan Claude Desktop, Cursor, dan VS Code
  • Proxy transparan—Anda berinteraksi secara normal dengan AI
  • PII dianonimkan sebelum prompt mencapai model
  • Bekerja dengan alur kerja yang sudah ada

Apa yang Dilindungi

Kedua alat tersebut mendeteksi dan menganonimi 285+ jenis entitas dalam 48 bahasa:

  • Pribadi: Nama, alamat email, nomor telepon, tanggal lahir
  • Keuangan: Nomor kartu kredit, rekening bank, IBAN
  • Pemerintah: SSN, nomor paspor, SIM
  • Kesehatan: Nomor rekam medis, ID pasien
  • Perusahaan: ID karyawan, nomor akun internal

Bahkan jika riwayat obrolan AI Anda disusupi (seperti 900.000 pengguna tersebut), tidak ada PII yang dapat dipulihkan—hanya token anonim.

Implementasi: 5 Menit Menuju Perlindungan

Ekstensi Chrome

  1. Unduh dari anonym.legal/features/chrome-extension
  2. Masuk dengan akun anonym.legal Anda
  3. Kunjungi ChatGPT, Claude, atau Gemini
  4. Ketik seperti biasa—PII secara otomatis terdeteksi dan dianonimkan sebelum dikirim

MCP Server (untuk Claude Desktop)

Tambahkan ke claude_desktop_config.json Anda:

{
  "mcpServers": {
    "anonym-legal": {
      "command": "npx",
      "args": ["-y", "@anthropic/mcp-server-anonym-legal"],
      "env": {
        "ANONYM_API_KEY": "your-api-key"
      }
    }
  }
}

Biaya dari Tidak Bertindak

Pertimbangkan apa yang berisiko:

  • Data keuangan yang ditempelkan ke AI untuk analisis
  • Informasi pelanggan yang digunakan dalam kueri dukungan
  • Kode sumber yang dibagikan untuk debugging
  • Dokumen hukum yang diringkas oleh AI
  • Rekaman kesehatan yang diproses untuk wawasan

Satu pelanggaran data menelan biaya rata-rata $4,88 juta (IBM 2024). Rata-rata pelanggaran layanan kesehatan kini menelan biaya $7,42 juta (IBM 2025)—turun dari $9,77 juta pada 2024, tetapi masih jauh melampaui industri lain.

Ekstensi Chrome gratis. MCP Server termasuk dalam paket Pro mulai dari €15/bulan.

Kesimpulan

AI hadir untuk tetap ada. Karyawan Anda sudah menggunakannya—pertanyaannya adalah apakah mereka melakukannya dengan aman.

Temuan LayerX memperjelas: pendekatan keamanan tradisional buta terhadap eksfiltrasi data AI. Anda membutuhkan alat yang dirancang khusus untuk melindungi data sebelum mencapai model AI.

Mulai lindungi organisasi Anda hari ini:


Sumber:

Siap untuk melindungi data Anda?

Mulai anonimisasi PII dengan 285+ jenis entitas dalam 48 bahasa.