Takaisin BlogiinAI Turvallisuus

JPMorgan, Goldman Sachs, Apple: Miksi yritysten...

27,4 % yritysten AI-chatbot-sisällöstä sisältää arkaluontoisia tietoja - 156 % vuosi vuodelta.

March 9, 20269 min lukuaika
enterprise AI securityChatGPT banAI data controlsshadow AI

Yritysten AI-kieltoaalto

Viimeisten kahden vuoden aikana merkittävä osa maailman suurimmista yrityksistä kielsi julkiset AI-työkalut:

JPMorgan Chase, Deutsche Bank, Wells Fargo, Goldman Sachs, Bank of America, Apple ja Verizon ovat organisaatioita, jotka ovat ottaneet käyttöön rajoituksia työntekijöiden käytölle ChatGPT:ssä ja vastaavissa työkaluissa.

Käynnistäjänä toimi Samsung. Vuonna 2023 Samsung nosti sisäisen ChatGPT-kieltonsa - ja yhden kuukauden sisällä tapahtui kolme erillistä lähdekoodin vuotoa. Työntekijät liittivät puolijohdedatabasovelluksen koodia, vianhavaitsemisohjelman koodia ja sisäisiä kokousmuistiinpanoja ChatGPT:hen saadakseen apua. Kun tiedot oli lähetetty, ne tallennettiin OpenAI:n palvelimille. Samsungilla ei ollut mekanismia tietojen palauttamiseksi tai poistamiseksi. Kielto palautettiin.

Samsungin tapaus tuli viittauskohteeksi turvallisuustiimeille kaikkialla: jos kehittynyt teknologiayritys, jolla on omat turvallisuustiiminsä, ei voi estää työntekijöitä vuotamasta IP:tä AI-työkaluille, ainoa vaihtoehto on estää työkalut kokonaan.

Tai niin ajateltiin.

Miksi kiellot epäonnistuivat

27,4 % kaikesta sisällöstä, joka syötetään yritysten AI-chatbotteihin, sisältää arkaluontoista tietoa - 156 % vuosi vuodelta (Zscaler 2025 Data@Risk Report).

Tämä luku heijastaa sitä, mitä tapahtui kieltojen jälkeen: työntekijät jatkoivat AI-työkalujen käyttöä. He siirtyivät vain ei-korporatiivisiin tileihin.

71,6 % yritysten AI-käytöstä tapahtuu nyt ei-korporatiivisten tilien kautta, kiertäen yrityksen DLP-kontrolleja (LayerX 2025 Enterprise GenAI Security Report).

Kielto ei estänyt AI:n käyttöä. Se siirsi AI:n käytön maan alle, missä se on vähemmän näkyvää, vähemmän kontrolloitua ja vähemmän auditoitavaa. Kehittäjä, joka käytti ChatGPT:tä yrityksen tilin kautta - luoden lokitietoja, laukaisten DLP-ilmoituksia, ainakin näkyvissä turvallisuusoperaatioille - siirtyi käyttämään sitä henkilökohtaisen tilinsä kautta yrityksen laitteellaan. Täsmälleen sama data. Ei näkyvyyttä lainkaan.

Tämä on työkalukiellon perus epäonnistumismalli aikakaudella, jolloin sama palvelu on saatavilla henkilökohtaisista tileistä: yritystilin kieltäminen ei estä käyttäytymistä.

Zscaler Data@Risk -raportti: Mitä oikeasti on näissä kehotteissa

Zscaler 2025 Data@Risk Report tarjoaa yksityiskohtaisimman kuvan siitä, mitä työntekijät oikeasti lähettävät yritysten AI-chatbotteihin. 27,4 % arkaluontoisten tietojen luku jakautuu kategorioihin:

  • Liikesalaisuudet ja kaupalliset salaisuudet
  • Asiakastiedot (nimet, yhteystiedot, tilitiedot)
  • Työntekijöiden henkilökohtaiset tiedot
  • Lähdekoodi (mukaan lukien upotetut tunnistetiedot)
  • Taloustiedot (julkaisemattomat tulot, sopimusehdot, sopimusarvot)
  • Oikeudelliset viestit ja etuoikeutetut tiedot

156 % vuosi vuodelta kasvua arkaluontoisissa tiedoissa AI-kehotteissa (Zscaler 2025) ei ensisijaisesti heijasta työntekijöiden varovaisuuden vähenemistä. Se heijastaa AI-työkalujen käyttöönoton kasvua. Kun yhä useammat työntekijät käyttävät AI-työkaluja yhä useammissa tehtävissä, arkaluontoisten tietojen absoluuttinen määrä, joka menee näihin työkaluihin, kasvaa suhteellisesti.

AI-rajoitusten tuottavuuskustannus

Turvallisuustapa AI:n kieltämiseksi on suora. Tuottavuustapa sitä vastaan on yhtä selkeä.

Tutkimukset osoittavat johdonmukaisesti, että AI-avustus tuottaa merkittäviä tuottavuusvoittoja asiantuntijatyöntekijöille:

  • Kehittäjät, jotka käyttävät AI-koodausavustajia, suorittavat tehtävät nopeammin
  • Oikeudelliset ammattilaiset, jotka käyttävät AI:ta asiakirjojen tarkistusprosessissa, käsittelevät enemmän asiakirjoja tunnissa
  • Asiakaspalvelutiimit, jotka käyttävät AI:ta vastausten laatimiseen, käsittelevät enemmän tikettejä

Kun yritykset kieltävät AI-käytön kehittäjiltä, joilla on kilpailijoita, jotka käyttävät sitä vapaasti, kilpailuhaitta on käsin kosketeltava. Kun analyytikoiden on työskenneltävä ilman AI-apua, jota heidän kilpailijansa käyttävät rutiininomaisesti, tuottavuusero kasvaa ajan myötä.

71,6 % henkilökohtaisen tilin kiertoprosentti heijastaa ei vain yksittäistä sääntöjen rikkomista vaan myös järkevää taloudellista käyttäytymistä: AI:sta saatava tuottavuusvoitto on riittävän suuri, että työntekijät hyväksyvät politiikan rikkomisen riskin sen sijaan, että luopuisivat työkalusta.

Tekninen vaihtoehto kieltämiselle

AI-kieltojen taustalla oleva turvallisuushuoli on perusteltu: arkaluontoisten tietojen virtaaminen ulkoisille AI-toimittajille luo todellista riskiä. Ratkaisu on poistaa tämä riski teknisesti - ei hyväksyä tuottavuuden menetystä vaihdossa kieltämiselle, jota työntekijät kiertävät joka tapauksessa.

Tekninen lähestymistapa: anonymisoida arkaluontoiset tiedot ennen kuin ne saavuttavat AI-mallin.

Kuvittele kehittäjä, joka liittää tietokantakyselyn, joka sisältää asiakastunnisteita, Claudeen saadakseen apua optimoinnissa. Kun tekniset kontrollit ovat paikallaan:

  1. Kehittäjä liittää kyselyn (jossa on asiakastunnuksia, tilinumeroita, henkilökohtaisesti tunnistettavia tietoja)
  2. Anonymisointikerros keskeyttää ennen siirtoa
  3. Asiakastunnukset muuttuvat "[ID_1]", tilinumerot muuttuvat "[ACCT_1]", nimet muuttuvat "[CUSTOMER_1]"
  4. Anonymisoitu kysely saavuttaa Clauden
  5. Clauden vastaus (käyttäen samoja tokeneita) palautuu
  6. Kehittäjä näkee vastauksen tokeneilla - mikä riittää ymmärtämään optimointiehdotuksen

Claude ei käsitellyt mitään todellisia asiakastietoja. Arkaluontoiset tiedot eivät koskaan poistuneet yrityksen verkosta. Kehittäjä sai tarvitsemansa teknisen avun. Turvatiimillä ei ole mitään tutkittavaa.

MCP-palvelinarkkitehtuuri kehittäjille

Kehittäjille, jotka käyttävät Claude Desktopia tai Cursor IDE:tä - pääasiallisia AI-koodausvälineitä - Mallin Konteksti Protokolla (MCP) tarjoaa läpinäkyvän proxy-arkkitehtuurin.

anonym.legal MCP-palvelin sijaitsee kehittäjän AI-asiakkaan ja AI-mallin API:n välillä. Kaikki MCP-protokollan kautta lähetettävä teksti - mukaan lukien tiedostojen sisällöt, koodipätkät, virheilmoitukset, konfiguraatiotiedostot ja luonnollisen kielen ohjeet - kulkee anonymisointimoottorin läpi ennen kuin se saavuttaa AI-mallin.

Kehittäjän näkökulmasta he käyttävät Claudea tai Cursoria normaalisti. Anonymisointi on näkymätöntä.

Turvatiimin näkökulmasta mitään liikesalaisuuksia, tunnistetietoja tai asiakastietoja ei poisteta verkosta tunnistettavassa muodossa. AI-malli käsittelee anonymisoituja versioita; vastaukset anonymisoidaan automaattisesti kehittäjälle.

Tämä arkkitehtuuri käsittelee Samsungin ongelman suoraan: työntekijät, jotka liittivät lähdekoodia ChatGPT:hen, olisivat lähettäneet anonymisoitua koodia, josta liikesalaisuudet olisi korvattu tokeneilla ennen siirtoa.

Chrome-laajennuksen arkkitehtuuri selainpohjaiselle AI:lle

MCP-palvelin käsittelee IDE:hen integroidun AI:n käyttöä. Selainpohjainen AI:n käyttö - Claude.ai, ChatGPT, Gemini - vaatii erilaisen teknisen kerroksen.

Chrome-laajennus keskeyttää tekstin ennen kuin se lähetetään AI-palvelulle selaimen käyttöliittymän kautta. Sama anonymisointimoottori pätee: nimet, yritystunnukset, lähdekoodisalaisuudet, taloudelliset luvut ja muut arkaluontoiset sisällöt korvataan tokeneilla ennen kuin kehotteet saavuttavat AI-toimittajan palvelimet.

MCP-palvelimen (IDE) + Chrome-laajennuksen (selaimen) yhdistelmä kattaa koko AI-kosketuspisteiden spektrin yritysympäristössä.

Liiketoimintatapauksen rakentaminen

CISOille, jotka ehdottavat tätä lähestymistapaa johtoryhmilleen, liiketoimintatapauksessa on kolme osaa:

1. Turvallisuus, joka vastaa kieltoa - Siinä, mitä oikeasti saavuttaa ulkoiset AI-toimittajat, anonymisoidut kehotteet eivät sisällä palautettavia arkaluontoisia tietoja. AI-toimittajan järjestelmien rikkominen ei tuota mitään arvoa organisaation asiakkaille, IP:lle tai toiminnoille.

2. Nolla tuottavuuden uhraus - Kehittäjät, analyytikot ja asiantuntijatyöntekijät jatkavat AI-työkalujen käyttöä normaalisti. Anonymisointi on läpinäkyvää. Tuotteen laatu ei muutu, koska AI-mallit toimivat yhtä tehokkaasti pseudonymisoidun sisällön kanssa.

3. Poistaa kiertoproblematiikan - 71,6 % henkilökohtaisen tilin kiertoprosentti heijastaa työntekijöiden valintaa tuottavuuden ja politiikan noudattamisen välillä. Kun työntekijät voivat käyttää AI-työkaluja yritystileillä ilman riskiä, kiertomotivaatio häviää. Turvatiimit saavat jälleen näkyvyyden AI:n käyttöön.

Jälkikielto toimintasuunnitelma

Yrityksille, joilla on tällä hetkellä AI-kieltoja ja jotka harkitsevat uudelleen, siirtymisen toimintasuunnitelma:

Vaihe 1 (Viikot 1-2): Ota käyttöön Chrome-laajennus Chrome Enterprise -politiikan kautta kaikille yrityslaitteille. Tämä tarjoaa heti selainpohjaista PII:n keskeytystä työntekijöille, jotka olivat jo kiertäneet rajoituksia henkilökohtaisten tilien kautta.

Vaihe 2 (Viikot 3-4): Ota käyttöön MCP-palvelin kehittäjien työasemille. Määritä mukautetut entiteettimallit organisaatioon liittyville arkaluontoisille tunnisteille (sisäiset tuotekoodit, asiakastilit, liikesalaisuudet).

Vaihe 3 (Kuukausi 2): Poista AI:n käyttöpolitiikan kielto yritystileille. Työntekijät voivat nyt käyttää AI-työkaluja yritystileillä teknisten kontrollien ollessa paikallaan.

Vaihe 4 (Jatkuva): Seuraa anonymisointitoimintaa (mitkä tietokategoriat anonymisoidaan useimmin) tunnistaaksesi turvallisuuskoulutuksen prioriteetit ja säädä entiteettitunnistuksen konfiguraatioita.

Samsungin tapaus, joka laukaisi yritysten AI-kieltoaalon, heijasti turvallisuusongelmaa, ei väistämätöntä ominaisuutta AI-työkaluissa. Teknisiä kontrollia, joita ei ollut Samsungin kiellon aikana, on nyt olemassa. Kysymys on siitä, käyttävätkö turvallisuustiimit niitä vai jatkavatko ne kiellon varassa, jota 71,6 % heidän työntekijöistään jo kiertää.


anonym.legalin MCP-palvelin ja Chrome-laajennus tarjoavat teknisen kontrollikerroksen, joka tekee yritysten AI:n käyttöönotosta yhteensopivaa tietoturvan kanssa. Molemmat työkalut toimivat läpinäkyvästi - työntekijät käyttävät AI:ta normaalisti; arkaluontoiset tiedot anonymisoidaan ennen kuin ne saavuttavat ulkoiset AI-toimittajat.

Lähteet:

Valmiina suojaamaan tietojasi?

Aloita PII-anonymisointi yli 285 entiteettityypillä 48 kielellä.