Yritysten AI-kieltoaalto
Viimeisten kahden vuoden aikana merkittävä osa maailman suurimmista yrityksistä kielsi julkiset AI-työkalut:
JPMorgan Chase, Deutsche Bank, Wells Fargo, Goldman Sachs, Bank of America, Apple ja Verizon ovat organisaatioita, jotka ovat ottaneet käyttöön rajoituksia työntekijöiden käytölle ChatGPT:ssä ja vastaavissa työkaluissa.
Käynnistäjänä toimi Samsung. Vuonna 2023 Samsung nosti sisäisen ChatGPT-kieltonsa - ja yhden kuukauden sisällä tapahtui kolme erillistä lähdekoodin vuotoa. Työntekijät liittivät puolijohdedatabasovelluksen koodia, vianhavaitsemisohjelman koodia ja sisäisiä kokousmuistiinpanoja ChatGPT:hen saadakseen apua. Kun tiedot oli lähetetty, ne tallennettiin OpenAI:n palvelimille. Samsungilla ei ollut mekanismia tietojen palauttamiseksi tai poistamiseksi. Kielto palautettiin.
Samsungin tapaus tuli viittauskohteeksi turvallisuustiimeille kaikkialla: jos kehittynyt teknologiayritys, jolla on omat turvallisuustiiminsä, ei voi estää työntekijöitä vuotamasta IP:tä AI-työkaluille, ainoa vaihtoehto on estää työkalut kokonaan.
Tai niin ajateltiin.
Miksi kiellot epäonnistuivat
27,4 % kaikesta sisällöstä, joka syötetään yritysten AI-chatbotteihin, sisältää arkaluontoista tietoa - 156 % vuosi vuodelta (Zscaler 2025 Data@Risk Report).
Tämä luku heijastaa sitä, mitä tapahtui kieltojen jälkeen: työntekijät jatkoivat AI-työkalujen käyttöä. He siirtyivät vain ei-korporatiivisiin tileihin.
71,6 % yritysten AI-käytöstä tapahtuu nyt ei-korporatiivisten tilien kautta, kiertäen yrityksen DLP-kontrolleja (LayerX 2025 Enterprise GenAI Security Report).
Kielto ei estänyt AI:n käyttöä. Se siirsi AI:n käytön maan alle, missä se on vähemmän näkyvää, vähemmän kontrolloitua ja vähemmän auditoitavaa. Kehittäjä, joka käytti ChatGPT:tä yrityksen tilin kautta - luoden lokitietoja, laukaisten DLP-ilmoituksia, ainakin näkyvissä turvallisuusoperaatioille - siirtyi käyttämään sitä henkilökohtaisen tilinsä kautta yrityksen laitteellaan. Täsmälleen sama data. Ei näkyvyyttä lainkaan.
Tämä on työkalukiellon perus epäonnistumismalli aikakaudella, jolloin sama palvelu on saatavilla henkilökohtaisista tileistä: yritystilin kieltäminen ei estä käyttäytymistä.
Zscaler Data@Risk -raportti: Mitä oikeasti on näissä kehotteissa
Zscaler 2025 Data@Risk Report tarjoaa yksityiskohtaisimman kuvan siitä, mitä työntekijät oikeasti lähettävät yritysten AI-chatbotteihin. 27,4 % arkaluontoisten tietojen luku jakautuu kategorioihin:
- Liikesalaisuudet ja kaupalliset salaisuudet
- Asiakastiedot (nimet, yhteystiedot, tilitiedot)
- Työntekijöiden henkilökohtaiset tiedot
- Lähdekoodi (mukaan lukien upotetut tunnistetiedot)
- Taloustiedot (julkaisemattomat tulot, sopimusehdot, sopimusarvot)
- Oikeudelliset viestit ja etuoikeutetut tiedot
156 % vuosi vuodelta kasvua arkaluontoisissa tiedoissa AI-kehotteissa (Zscaler 2025) ei ensisijaisesti heijasta työntekijöiden varovaisuuden vähenemistä. Se heijastaa AI-työkalujen käyttöönoton kasvua. Kun yhä useammat työntekijät käyttävät AI-työkaluja yhä useammissa tehtävissä, arkaluontoisten tietojen absoluuttinen määrä, joka menee näihin työkaluihin, kasvaa suhteellisesti.
AI-rajoitusten tuottavuuskustannus
Turvallisuustapa AI:n kieltämiseksi on suora. Tuottavuustapa sitä vastaan on yhtä selkeä.
Tutkimukset osoittavat johdonmukaisesti, että AI-avustus tuottaa merkittäviä tuottavuusvoittoja asiantuntijatyöntekijöille:
- Kehittäjät, jotka käyttävät AI-koodausavustajia, suorittavat tehtävät nopeammin
- Oikeudelliset ammattilaiset, jotka käyttävät AI:ta asiakirjojen tarkistusprosessissa, käsittelevät enemmän asiakirjoja tunnissa
- Asiakaspalvelutiimit, jotka käyttävät AI:ta vastausten laatimiseen, käsittelevät enemmän tikettejä
Kun yritykset kieltävät AI-käytön kehittäjiltä, joilla on kilpailijoita, jotka käyttävät sitä vapaasti, kilpailuhaitta on käsin kosketeltava. Kun analyytikoiden on työskenneltävä ilman AI-apua, jota heidän kilpailijansa käyttävät rutiininomaisesti, tuottavuusero kasvaa ajan myötä.
71,6 % henkilökohtaisen tilin kiertoprosentti heijastaa ei vain yksittäistä sääntöjen rikkomista vaan myös järkevää taloudellista käyttäytymistä: AI:sta saatava tuottavuusvoitto on riittävän suuri, että työntekijät hyväksyvät politiikan rikkomisen riskin sen sijaan, että luopuisivat työkalusta.
Tekninen vaihtoehto kieltämiselle
AI-kieltojen taustalla oleva turvallisuushuoli on perusteltu: arkaluontoisten tietojen virtaaminen ulkoisille AI-toimittajille luo todellista riskiä. Ratkaisu on poistaa tämä riski teknisesti - ei hyväksyä tuottavuuden menetystä vaihdossa kieltämiselle, jota työntekijät kiertävät joka tapauksessa.
Tekninen lähestymistapa: anonymisoida arkaluontoiset tiedot ennen kuin ne saavuttavat AI-mallin.
Kuvittele kehittäjä, joka liittää tietokantakyselyn, joka sisältää asiakastunnisteita, Claudeen saadakseen apua optimoinnissa. Kun tekniset kontrollit ovat paikallaan:
- Kehittäjä liittää kyselyn (jossa on asiakastunnuksia, tilinumeroita, henkilökohtaisesti tunnistettavia tietoja)
- Anonymisointikerros keskeyttää ennen siirtoa
- Asiakastunnukset muuttuvat "[ID_1]", tilinumerot muuttuvat "[ACCT_1]", nimet muuttuvat "[CUSTOMER_1]"
- Anonymisoitu kysely saavuttaa Clauden
- Clauden vastaus (käyttäen samoja tokeneita) palautuu
- Kehittäjä näkee vastauksen tokeneilla - mikä riittää ymmärtämään optimointiehdotuksen
Claude ei käsitellyt mitään todellisia asiakastietoja. Arkaluontoiset tiedot eivät koskaan poistuneet yrityksen verkosta. Kehittäjä sai tarvitsemansa teknisen avun. Turvatiimillä ei ole mitään tutkittavaa.
MCP-palvelinarkkitehtuuri kehittäjille
Kehittäjille, jotka käyttävät Claude Desktopia tai Cursor IDE:tä - pääasiallisia AI-koodausvälineitä - Mallin Konteksti Protokolla (MCP) tarjoaa läpinäkyvän proxy-arkkitehtuurin.
anonym.legal MCP-palvelin sijaitsee kehittäjän AI-asiakkaan ja AI-mallin API:n välillä. Kaikki MCP-protokollan kautta lähetettävä teksti - mukaan lukien tiedostojen sisällöt, koodipätkät, virheilmoitukset, konfiguraatiotiedostot ja luonnollisen kielen ohjeet - kulkee anonymisointimoottorin läpi ennen kuin se saavuttaa AI-mallin.
Kehittäjän näkökulmasta he käyttävät Claudea tai Cursoria normaalisti. Anonymisointi on näkymätöntä.
Turvatiimin näkökulmasta mitään liikesalaisuuksia, tunnistetietoja tai asiakastietoja ei poisteta verkosta tunnistettavassa muodossa. AI-malli käsittelee anonymisoituja versioita; vastaukset anonymisoidaan automaattisesti kehittäjälle.
Tämä arkkitehtuuri käsittelee Samsungin ongelman suoraan: työntekijät, jotka liittivät lähdekoodia ChatGPT:hen, olisivat lähettäneet anonymisoitua koodia, josta liikesalaisuudet olisi korvattu tokeneilla ennen siirtoa.
Chrome-laajennuksen arkkitehtuuri selainpohjaiselle AI:lle
MCP-palvelin käsittelee IDE:hen integroidun AI:n käyttöä. Selainpohjainen AI:n käyttö - Claude.ai, ChatGPT, Gemini - vaatii erilaisen teknisen kerroksen.
Chrome-laajennus keskeyttää tekstin ennen kuin se lähetetään AI-palvelulle selaimen käyttöliittymän kautta. Sama anonymisointimoottori pätee: nimet, yritystunnukset, lähdekoodisalaisuudet, taloudelliset luvut ja muut arkaluontoiset sisällöt korvataan tokeneilla ennen kuin kehotteet saavuttavat AI-toimittajan palvelimet.
MCP-palvelimen (IDE) + Chrome-laajennuksen (selaimen) yhdistelmä kattaa koko AI-kosketuspisteiden spektrin yritysympäristössä.
Liiketoimintatapauksen rakentaminen
CISOille, jotka ehdottavat tätä lähestymistapaa johtoryhmilleen, liiketoimintatapauksessa on kolme osaa:
1. Turvallisuus, joka vastaa kieltoa - Siinä, mitä oikeasti saavuttaa ulkoiset AI-toimittajat, anonymisoidut kehotteet eivät sisällä palautettavia arkaluontoisia tietoja. AI-toimittajan järjestelmien rikkominen ei tuota mitään arvoa organisaation asiakkaille, IP:lle tai toiminnoille.
2. Nolla tuottavuuden uhraus - Kehittäjät, analyytikot ja asiantuntijatyöntekijät jatkavat AI-työkalujen käyttöä normaalisti. Anonymisointi on läpinäkyvää. Tuotteen laatu ei muutu, koska AI-mallit toimivat yhtä tehokkaasti pseudonymisoidun sisällön kanssa.
3. Poistaa kiertoproblematiikan - 71,6 % henkilökohtaisen tilin kiertoprosentti heijastaa työntekijöiden valintaa tuottavuuden ja politiikan noudattamisen välillä. Kun työntekijät voivat käyttää AI-työkaluja yritystileillä ilman riskiä, kiertomotivaatio häviää. Turvatiimit saavat jälleen näkyvyyden AI:n käyttöön.
Jälkikielto toimintasuunnitelma
Yrityksille, joilla on tällä hetkellä AI-kieltoja ja jotka harkitsevat uudelleen, siirtymisen toimintasuunnitelma:
Vaihe 1 (Viikot 1-2): Ota käyttöön Chrome-laajennus Chrome Enterprise -politiikan kautta kaikille yrityslaitteille. Tämä tarjoaa heti selainpohjaista PII:n keskeytystä työntekijöille, jotka olivat jo kiertäneet rajoituksia henkilökohtaisten tilien kautta.
Vaihe 2 (Viikot 3-4): Ota käyttöön MCP-palvelin kehittäjien työasemille. Määritä mukautetut entiteettimallit organisaatioon liittyville arkaluontoisille tunnisteille (sisäiset tuotekoodit, asiakastilit, liikesalaisuudet).
Vaihe 3 (Kuukausi 2): Poista AI:n käyttöpolitiikan kielto yritystileille. Työntekijät voivat nyt käyttää AI-työkaluja yritystileillä teknisten kontrollien ollessa paikallaan.
Vaihe 4 (Jatkuva): Seuraa anonymisointitoimintaa (mitkä tietokategoriat anonymisoidaan useimmin) tunnistaaksesi turvallisuuskoulutuksen prioriteetit ja säädä entiteettitunnistuksen konfiguraatioita.
Samsungin tapaus, joka laukaisi yritysten AI-kieltoaalon, heijasti turvallisuusongelmaa, ei väistämätöntä ominaisuutta AI-työkaluissa. Teknisiä kontrollia, joita ei ollut Samsungin kiellon aikana, on nyt olemassa. Kysymys on siitä, käyttävätkö turvallisuustiimit niitä vai jatkavatko ne kiellon varassa, jota 71,6 % heidän työntekijöistään jo kiertää.
anonym.legalin MCP-palvelin ja Chrome-laajennus tarjoavat teknisen kontrollikerroksen, joka tekee yritysten AI:n käyttöönotosta yhteensopivaa tietoturvan kanssa. Molemmat työkalut toimivat läpinäkyvästi - työntekijät käyttävät AI:ta normaalisti; arkaluontoiset tiedot anonymisoidaan ennen kuin ne saavuttavat ulkoiset AI-toimittajat.
Lähteet: