Prawo

Twój chatbot nie dochowa tajemnicy. Amerykański sąd uderza w przywilej adwokacki

Myślisz, że prompt to prywatna notatka? Bradley Heppner, były szef GWG Holdings, myślał podobnie, dopóki sędzia Jed Rakoff nie kazał mu przekazać prokuratorom 31 dokumentów wygenerowanych przez AI. To brutalne przebudzenie dla każdego, kto traktuje bota jak spowiednika w sprawach kryminalnych.

Koniec iluzji poufności

W amerykańskim systemie prawnym przywilej adwokacko-kliencki jest świętością. To tarcza, która chroni komunikację między prawnikiem a klientem przed wścibstwem państwa. Jednak w momencie, gdy do równania wchodzi Claude od Anthropic lub ChatGPT, tarcza paruje. Sędzia Rakoff postawił sprawę jasno: między użytkownikiem a maszyną nie istnieje i nie może istnieć relacja prawnik-klient.

AI to nie powiernik. To narzędzie należące do korporacji, która w regulaminie wprost ostrzega, że nie gwarantuje prywatności danych wejściowych.

Dlaczego to problem?

Prokuratorzy argumentowali skutecznie, że Heppner, tworząc raporty przy pomocy Claude’a bez bezpośredniego nadzoru prawników, dobrowolnie zrzekł się ochrony. Wysyłając dane do serwerów Anthropic, „ujawnił” je stronie trzeciej.

  • Dane w chmurze AI nie są chronione tajemnicą zawodową.
  • Regulaminy OpenAI i Anthropic wymagają konsultacji z żywym ekspertem.
  • Każdy wpisany prompt może stać się dowodem rzeczowym.

Prawnicy przechodzą do defensywy

Kancelarie z Wall Street i Los Angeles nie czekają na kolejne wyroki. W nowym standardzie umów, takich jak te od firmy Sher Tremonte, pojawiają się klauzule ostrzegawcze. Krótki komunikat dla klienta: jeśli wrzucisz nasze porady do bota, żeby je podsumować, właśnie straciliśmy prawo do zachowania ich w tajemnicy przed sądem.

Niektórzy eksperci, jak ci z Debevoise & Plimpton, próbują „hakować” system, sugerując klientom dopisywanie do promptów formułek w stylu: „Prowadzę te badania na polecenie mojego obrońcy”.

To desperacka próba rozciągnięcia doktryny work-product (ochrony efektów pracy prawnika) na algorytmy, która w starciu z twardym prawem precedensowym może okazać się tylko listkiem figowym.

Narzędzie, nie osoba

Interesujący dysonans wprowadził sędzia Anthony Patti z Michigan. W innej sprawie uznał, że kobieta nie musi wydawać czatów z ChatGPT, bo potraktował je jako jej osobisty proces myślowy, a nie rozmowę z osobą trzecią. To rzadki promyk nadziei dla użytkowników, ale na tle surowego wyroku z Nowego Jorku wygląda raczej na anomalię niż nowy standard.

Dopóki orzecznictwo się nie ustabilizuje, panuje jedna zasada: milczenie jest złotem, a prompt jest zeznaniem.

Dopóki nie rozmawiasz z licencjonowanym prawnikiem, załóż, że każda linijka tekstu wpisana w okno czatu może zostać odczytana na sali rozpraw. W świecie nowoczesnej jurysprudencji AI nie jest twoim asystentem – jest najbardziej gadatliwym świadkiem oskarżenia, jakiego kiedykolwiek stworzył człowiek.