anonym.legal
Povratak na blogBezbednost veštačke inteligencije

Samsung изгубио исходни код на ChatGPT 3 пута

Три одвојена Samsung инжењерски тимове налепљена proprietary код и поверљивих podatake у ChatGPT у априлу 2023. Свака инцидент открила је разичите...

March 13, 20269 min čitanja
Samsung ChatGPT leaksource code protectionenterprise AI controlsinsider data leakageMCP Server anonymization

Три инжењерски тимова, три инцидента, једна месец

У априлу 2023, Samsung Semiconductor је раскрио три одвојена инцидента у које су запослени пренети proprietary podatake на ChatGPT унутар једна месец.

Инцидента нису били повезани једни са другим. Укупљена различити запослени у различити улоге, потпоморе различити задаци, на различити дане. Деле само два карактеристика: свака запослена коришћена ChatGPT да задовољи легитимна радна циљ, и свака случајно пренета podatake Samsung није намеравала деле са OpenAI инфраструктуре.

Инцидент 1: Софтвер инжењер била отклањања код повезана са полупроводникском опремом. Отклањања сложене системе су честа AI алата користе дело — пружање код AI моделе и тврђеню открити извор неочекивано понашања. Инжењер налепљена исходног кода од Samsung proprietary полупроводниског опреме системе унутар ChatGPT. Код је садржавао intellectual property повезана са Samsung производне процесе.

Инцидент 2: Запослена била припремањe дневник сумирање. AI-асистирана забелешки-узимање и дневник сумирање су постали стандардни радни ток алати преко индустрије. Запослена поднета дневник белешке на ChatGPT за сумирање. Та дневник белешке је садржавала поверљива унутрашња дискусијама — пословно стратегија, техничког плани, и другој информацији Samsung сметани неспоредни.

Инцидент 3: Трећи запослена позивала оптимизација сугестијена за датабазе упит. База датабазе оптимизација је технички захтеван задаци где AI помоћ пружи genuine вредност. Запослена наведена база структура и упит логика на ChatGPT. Упит логика је садржавала референце на proprietary податаке структура и пословна логика.

Зашто су запослени учиниће то

Ни трећина Samsung запослене нису били делујућ irresponsibly по њихов властите професионално стандарди. Были коришћењем AI алата за задаци та AI алати су дизајнирани помоћи кроз: код отклањања, текст сумирање, технички оптимизација.

Отсутни елемент у сваки случај је била техничка фрикција. Ниједан систем прихватена поднос пре него досегну OpenAI серверима. Ниједан контрола је заставица proprietary кода идентификаторе пред напусто корпоративни мережа. Ниједан архитектур слој је стајао између запослена легитимна радна потреби и AI добављач инфраструктуре.

Запослена били рационални. AI алата наведена genuine помоћ са легитимна радна задаци. Политика упозорење постоје али наметнута ниједан техничка препрека. Последица неслагања — потенцијална дисциплинарна акција за неснажна акта — је била апстрактна и удаљена поредјењу на непосредна производности корист алата.

Резултат: три инцидента у једна месец, три откривања од proprietary информације, и корпоративна криза та пријаву глобална талас предузећа AI забранам.

Индустрија одговор

Samsung унутрашњу реакција била брза: ChatGPT приступ је ограничена за корпоративни уређају. Откривање је покренула већа индустрија реакција та открила како широк дао базна услов је били.

Организације та објављена AI алата забранам или ограничењима следеће Samsung откривање укупљена Bank of America, Citigroup, Goldman Sachs, JPMorgan Chase, Apple, и Verizon. Финансијска сектор реакција је била нарочито свеобухвата — више главна установе истовремено закључена та ризик профил AI алата без техничких контрола је неусклађена са њихов складности обавезе.

Свака организација достигла исто закључење: запослена није проблем, и политика упозорења су неопходна доста управи. Podatake је била напусто њихов мреже јер ниједан техничка препрека је спречава то, и политика себе не може створи техничка препрека.

71.6% Заобиђи стопа

Забрана прилику је имала документирана отказ стопа. LayerX истраживање из 2025 открило та 71.6% од запослене подложна предузећа AI забранам наставио коришћењем AI алати кроз лично рачун или уређаје.

Заобиђи стопа одражава основна понашања: када алата пружа genuine производности вредност, корисници су налазити заобиђи место напустити трајно алата. Запослена та открива та AI помоћ значајно убрзава њихов радну излазу неће престану користити та алати јер корпоративни политика забрањује та на корпоративни уређајима. Неће користити лично рачун на лично уређајима кроз канала безбедност тима не може видити.

Практична последица од 71.6% заобиђи стопа је та забрана достиже најгоре могуће исход: корпоративна podatake достиже AI добављачима кроз канала са ниједан безбедност управи уопште. На крају, корпоративни уређај приступ би могла теоретски бити надзиран. Лично рачун коришћење је невидљива на безбедност тима потпуно.

Samsung три инцидента дошло на корпоративни уређајима кроз корпоративни приступ. Запослена та заобиђи забрану су чињење исто ствар — пружање радна-повезана podatake на AI моделе — кроз канала са ниједан предузећа надзор.

Техничка управи та адреса корен узрок

Samsung инцидента нису били узроковани запослена беспажљивошћу. Били су узроковани архитектуром та наведена ниједан прихват слој између запослена AI користи и екстерни AI инфраструктуре.

Модел Context Protocol (MCP) архитектура пружа прозиран прокси између AI клијента и AI модели APIs. За разработе користећи Claude Desktop или Cursor IDE — примарна алати за врста од кода отклањања та узроковала Samsung први инцидент — MCP сервер седи у протокола пут.

Пре него било који текст достиже AI моделе, MCP сервер обработе то кроз анонимизација мотор. Исходни код је анализиран за proprietary идентификаторе: функција имена, променљива имена, унутрашњи API крајни поен, база структура детаљи, конфигурација вредности. Ta су замењена са структурирана жетона пред код достиже AI добављач серверима.

Разработа питање Claude отклањања proprietary Samsung полупроводниског код кроз MCP сервер опремљена са анонимизација би пренета код у та proprietary идентификаторе је била замењена са жетона. AI моделе помоћи са отклањања задаци користећи анонимизирана кода — та је довољна за кода анализа. Proprietary специфике никад достиже AI добављач серверима.

Инцидент 1 постаје технички немогуће. Исходни кода напушта мреже у анонимизирана форме. AI пружа отклањања помоћи инжењер требаја. Samsung intellectual property остаје у Samsung контрола.

Иста архитектура се примењује на Инцидент 2 (дневник белешка сумирање кроз браузер-основни AI, адресирана од Chrome Extension) и Инцидент 3 (база запит оптимизација кроз било koji AI кода интерфејс, адресирана од MCP анонимизација).

Samsung инцидента била превид од систематична проблема. Техничка управи та адреса корен узрок сада постоје. Питање је ли предузећа ће распоредити та или наставити ослањајућа се на забране та 71.6% од њихов запослена је већ заобиђи.

Види такође:

Извори:

Spremni da zaštitite svoje podatke?

Počnite sa anonimizacijom PII sa 285+ tipova entiteta na 48 jezika.