Powrót do blogaTechnologia prawna

Sankcje E-Discovery z powodu błędów redakcyjnych AI...

W sprawie Athletics Investment Group v. Schnitzer Steel (2024) niewłaściwa redakcja wywołała sankcje w zakresie odkrywania dowodów.

March 12, 202610 min czytania
e-discovery sanctionsredaction liabilityAI redaction precisiondocument reviewlegal technology

Podwójna odpowiedzialność za niewłaściwą redakcję

Zespoły prawne stają w obliczu dwóch odrębnych trybów błędów redakcyjnych, a oba tworzą odpowiedzialność.

Niedorekcja ujawnia treści objęte przywilejem, poufne informacje biznesowe lub dane osobowe, które powinny być zastrzeżone. Strona produkująca ujawnia materiały, które miała prawo — a w niektórych przypadkach obowiązek — chronić.

Nadmierna redakcja wstrzymuje informacje, do których przeciwny pełnomocnik ma prawo. Strona produkująca utrudnia proces odkrywania dowodów, potencjalnie ukrywając dowody za nieuzasadnionymi roszczeniami o przywilej. Sądy traktują nadmierną redakcję jako naruszenie odkrywania dowodów, które podlega sankcjom.

Narzędzia redakcyjne wspomagane AI, które priorytetowo traktują przypomnienie nad precyzję — maksymalnie oznaczając potencjalnie wrażliwe treści — systematycznie produkują drugi tryb błędu. Kiedy silnik redakcyjny AI redaguje 80% treści dokumentu, aby upewnić się, że niczego nie pominie, wynikowa produkcja jest funkcjonalnie bezużyteczna i potencjalnie podlega sankcjom.

Athletics Investment Group v. Schnitzer Steel (2024)

Sprawa z 2024 roku Athletics Investment Group v. Schnitzer Steel ilustruje reakcję sądową na niewłaściwą redakcję w e-odkrywaniu.

Sprawa dotyczyła sporu handlowego, w którym produkcja dokumentów jednej strony zawierała redakcje, które przeciwny pełnomocnik zakwestionował jako nieuzasadnione. Sąd zbadał redagowane materiały i stwierdził, że redakcje przekroczyły to, co prawo przywileju lub doktryny poufności zezwalały.

Konsekwencja: sankcje w zakresie odkrywania dowodów. Sąd nałożył kary na stronę produkującą za niewłaściwe redakcje — środek dostępny na mocy Federalnej Zasady Procedury Cywilnej 37 za naruszenia odkrywania dowodów. Strona produkująca poniosła ciężar korzystania z niewłaściwego procesu redakcyjnego.

Sprawa jest istotna nie dlatego, że sankcje za nadmierną redakcję są nowe — sądy przyznają je od lat — ale dlatego, że miała miejsce w krajobrazie procesowym, w którym narzędzia wspomagane AI są teraz powszechne. Pytanie, które stawia sprawa, brzmi, czy zespoły prawne oceniły cechy precyzyjne swoich narzędzi redakcyjnych AI przed poleganiem na nich w produkcji.

Problem 22,7% precyzji

Presidio, silnik wykrywania PII typu open-source opracowany przez Microsoft i szeroko stosowany w aplikacjach technologii prawnej, osiąga 22,7% wskaźnika precyzji w dokumentach prawnych w niezależnym benchmarking.

Precyzja mierzy, jak często pozytywne identyfikacje narzędzia są poprawne. Wskaźnik precyzji 22,7% oznacza, że około 77 na każde 100 pozycji oznaczonych przez narzędzie jako wrażliwe w rzeczywistości nie spełnia progu wrażliwości, dla którego zostały oznaczone.

Dla aplikacji e-odkrywania ma to bezpośrednie konsekwencje operacyjne. Zestaw produkcji 10 000 dokumentów przetworzony za pomocą narzędzia osiągającego 22,7% precyzji będzie zawierał tysiące redakcji, które nie mają uzasadnionej podstawy przywileju ani poufności. Strona produkująca, która polega na tym wyniku, staje w obliczu tego samego ryzyka jak strona w Athletics Investment Group: produkcja, którą przeciwny pełnomocnik zakwestionuje, sąd, który zbada redagowaną treść, i sankcje, jeśli redakcje nie mogą być uzasadnione.

Wskaźnik 22,7% odzwierciedla konfigurację Presidio w standardzie dla treści prawnych. Nie reprezentuje wszystkich narzędzi redakcyjnych wspomaganych AI — ale reprezentuje podstawową wydajność najczęściej wdrażanego silnika open-source w integracjach technologii prawnej.

Problem precyzji ma charakter strukturalny: systemy rozpoznawania jednostek oparte na NLP, trenowane na ogólnych korpusach tekstowych, działają inaczej w języku prawnym, który używa terminów specjalistycznych, skrótów, konwencji formatowania dokumentów i struktur cytatów, które różnią się od danych treningowych. Narzędzie, które osiąga akceptowalną precyzję w dokumentach medycznych lub sprawozdaniach finansowych, może działać znacznie gorzej w transkrypcjach zeznań, korespondencji i załącznikach do umów.

Co ujawnia analiza treści czatu AI

Kontekst przyjęcia narzędzi AI w praktyce prawnej ustalają dane dotyczące użytkowania: 27,4% treści czatu AI jest wrażliwych, według niezależnej analizy wzorców użytkowania narzędzi AI w przedsiębiorstwach.

Ta liczba opisuje, co pracownicy przesyłają do narzędzi AI, gdy używają ich do zadań zawodowych — nie dane, które celowo udostępnili, ale przypadkowo zawierające wrażliwe treści. Dla profesjonalistów prawnych korzystających z narzędzi AI do sporządzania korespondencji, podsumowywania zeznań, analizy umów lub badania orzecznictwa, wrażliwe treści trafiają na platformy AI jako produkt uboczny normalnej pracy.

Liczba 27,4% ustala, że prawie trzy na dziesięć interakcji z narzędziami AI w środowisku prawnym obejmują wrażliwe treści — informacje o klientach, komunikacje objęte przywilejem, poufne strategie sprawy lub dane strony przeciwnej. Te treści trafiają do infrastruktury dostawcy AI w użytecznej formie, chyba że techniczne kontrole przechwycą je wcześniej.

Dla kancelarii prawnych oceniających swoje zabezpieczenia AI, 27,4% to nie marginalne ryzyko. To podstawowe założenie: prawie jedna trzecia użycia narzędzi AI w środowisku prawnym będzie obejmować treści, które wymagają ochrony.

Kaskadowy łańcuch odpowiedzialności

Nadmierna redakcja i narażenie danych przez narzędzia AI tworzą odrębne, ale powiązane łańcuchy odpowiedzialności dla zespołów prawnych.

Łańcuch odpowiedzialności za nadmierną redakcję: Narzędzie AI maksymalnie oznacza dokumenty → prawnik przegląda wynik bez indywidualnego badania każdej redakcji → produkcja złożona z nieuzasadnionymi redakcjami → przeciwny pełnomocnik kwestionuje → sąd bada → sankcje.

Łańcuch odpowiedzialności za narażenie AI: Prawnik korzysta z narzędzia AI, aby wspierać pracę nad sprawą → narzędzie AI otrzymuje poufne komunikacje z klientem, poufne strategie lub wrażliwe dane sprawy → infrastruktura dostawcy AI zostaje naruszona → dane klienta są ujawnione → przywilej adwokacko-kliencki może być potencjalnie naruszony → narażenie na błąd zawodowy.

Oba łańcuchy zaczynają się w tym samym punkcie: zespoły prawne wdrażają narzędzia AI bez zrozumienia technicznych cech tych narzędzi lub wdrażania kontroli odpowiednich do pracy prawnej.

Redakcja z priorytetem na precyzję dla produkcji prawnych

Standard sądowy dla redakcji nie jest zoptymalizowany pod kątem przypomnienia. Sądy oceniające zakwestionowane redakcje pytają, czy każda konkretna redakcja była uzasadniona przez przywilej, doktrynę poufności lub odpowiednie zarządzenie ochronne — a nie czy narzędzie strony produkującej oznaczyło jak najwięcej, aby być bezpiecznym.

Redakcja, która nie może być uzasadniona, jest naruszeniem odkrywania dowodów, niezależnie od tego, czy została wyprodukowana przez przeglądającego człowieka, czy narzędzie AI. Dochodzenie sądu jest specyficzne dla dokumentu, a nie na poziomie systemu.

Dla zespołów prawnych implikacja operacyjna jest taka, że narzędzia redakcyjne muszą być oceniane pod kątem precyzji — procentu oznaczonych pozycji, które są rzeczywiście objęte przywilejem lub poufne — a nie tylko przypomnienia. Narzędzie, które osiąga 90% przypomnienia przy 22,7% precyzji, może wychwycić więcej wrażliwych treści, ale nakłada obciążenie ręcznego przeglądu dla 77,3% fałszywych pozytywów i tworzy systematyczne ryzyko nadmiernej redakcji, gdy ten przegląd nie występuje.

Środowisko prawne wymaga precyzji na poziomie dokumentu. Każda redakcja w produkcji reprezentuje domniemane twierdzenie przed sądem, że redagowana treść jest rzeczywiście zastrzeżona. Standard po Athletics Investment Group jest jasny: to twierdzenie musi być dokładne.

Źródła:

Gotowy, aby chronić swoje dane?

Rozpocznij anonimizację PII z 285+ typami podmiotów w 48 językach.