Sąd nakazuje OpenAI zatrzymanie usuniętych czatów ChatGPT — co to oznacza dla prywatności użytkowników?
Sąd stanowy w USA odrzucił sprzeciw OpenAI wobec nakazu bezterminowego przechowywania wszystkich logów czatu ChatGPT, w tym rozmów usuniętych i tymczasowych. Decyzja ta, podjęta przez sędziego okręgowego Sidneya Steina, na wniosek sędziego magnistratualnego Ony Wang, stanowi znaczące zwycięstwo dla stron pozywających OpenAI, na czele z The New York Times.
Sędzia Stein nie ugiął się pod argumentami OpenAI, że nakaz narusza „wieloletnie normy prywatności” i osłabia ochronę, której użytkownicy oczekują. Zamiast tego, wskazał, że warunki użytkowania ChatGPT jasno precyzują możliwość zatrzymania danych w ramach procesu prawnego, co, jak stwierdził, ma miejsce obecnie. Nakaz ten jest kluczowy dla powodów w sprawie o naruszenie praw autorskich, ponieważ obawiają się oni, że użytkownicy ChatGPT mogą usuwać czaty, w których próbowali obejść płatne treści informacyjne.
OpenAI kontra sąd: walka o dane użytkowników
Mimo zapewnień rzecznika OpenAI o planach dalszego „walki” z nakazem, opcje firmy wydają się ograniczone. Jedyną drogą jest odwołanie się do Sądu Apelacyjnego Drugiego Okręgu o rzadko udzielane nadzwyczajne zarządzenie, które mogłoby zablokować postanowienie sędziego Wang. Jednak sąd apelacyjny musiałby uznać nakaz za rażące nadużycie dyskrecji, aby OpenAI mogło wygrać.
W międzyczasie OpenAI negocjuje proces, który pozwoli powodom z branży medialnej przeszukiwać zabezpieczone dane. Szybkość rozpoczęcia tego procesu może wpłynąć na to, jak szybko dane zostaną ostatecznie usunięte. To stawia OpenAI w trudnej sytuacji: albo ulegnie w kwestii gromadzenia danych, aby przyspieszyć ich usunięcie, albo przedłuży walkę, ryzykując ujawnienie jeszcze większej liczby prywatnych rozmów użytkowników w wyniku sporów sądowych lub, co gorsza, naruszenia danych.
Mimo że OpenAI będzie przechowywać ogromne ilości danych, przeszukanie ich wszystkich przez The New York Times lub innych powodów nie będzie możliwe. Dostęp do danych będzie ograniczony do niewielkiej próbki, na podstawie słów kluczowych uzgodnionych przez OpenAI i powodów. Dane pozostaną na serwerach OpenAI, gdzie zostaną zanonimizowane i prawdopodobnie nigdy nie zostaną bezpośrednio dostarczone powodom.
Obie strony negocjują dokładny proces przeszukiwania logów czatu, mając nadzieję, że minimalizują czas ich przechowywania. Dla OpenAI udostępnienie logów grozi ujawnieniem przypadków naruszeń, co mogłoby zwiększyć odszkodowania w sprawie. Może także ujawnić, jak często wygenerowane treści przypisują dezinformację powodom z branży medialnej.
Prywatność użytkowników w obliczu praw autorskich
Dostęp do logów nie jest dla powodów z branży medialnej kluczowy w sprawie, ale może pomóc im argumentować, że ChatGPT rozmywa rynek dla ich treści. To mogłoby osłabić argumentację o dozwolonym użytku, zwłaszcza że, jak zauważył sędzia w niedawnym orzeczeniu, dowody rozmycia rynku mogą przechylić szalę w sprawie o prawa autorskie dotyczące AI na korzyść powodów.
Jay Edelson, czołowy prawnik specjalizujący się w ochronie prywatności, wyraził zaniepokojenie, że sędziowie nie biorą pod uwagę, iż jakiekolwiek dowody z logów ChatGPT nie przyspieszą sprawy powodów, a jednocześnie znacząco zmienią „produkt, z którego ludzie korzystają na co dzień”.
Edelson ostrzegł, że chociaż OpenAI prawdopodobnie ma lepsze zabezpieczenia niż większość firm w zakresie ochrony przed potencjalnym naruszeniem danych, prawnicy są „notorycznie słabi w zabezpieczaniu danych”. Idea, że „paczka prawników będzie robić cokolwiek” z „najwrażliwszymi danymi na świecie” i „to oni będą je chronić przed hakerami, powinna niepokoić każdego”.
Chociaż szanse na to, że większość czatów użytkowników nie znajdzie się w próbce są wysokie, samo zagrożenie włączenia może skłonić niektórych użytkowników do ponownego przemyślenia sposobu, w jaki korzystają z AI. Edelson ostrzegł również, że migracja użytkowników ChatGPT do konkurencyjnych usług, takich jak Anthropic Claude czy Google Gemini, może sugerować, że nakaz sędziego Wang niewłaściwie wpływa na siły rynkowe, co również wydaje się „szalone”.
Najbardziej „cyniczna” interpretacja, zdaniem Edelsona, zakłada, że powodowie z branży medialnej mają nadzieję, iż nakaz zagrozi działalności OpenAI do tego stopnia, że firma AI zgodzi się na ugodę.
Niezależnie od motywów powodów, nakaz ustanawia niepokojący precedens. Edelson dołączył do krytyków sugerujących, że w przyszłości może zostać zamrożonych więcej danych AI, co może dotknąć jeszcze więcej użytkowników. Wyobraźmy sobie, co by się stało, gdyby w przyszłości pozew uderzył w podsumowania wyszukiwania AI Google.
Brak głosu użytkowników i niejasne kryteria
Edelson uważa, że nakaz jest tak potencjalnie groźny dla działalności OpenAI, że firma może nie mieć wyboru i będzie musiała zbadać wszystkie dostępne ścieżki, aby dalej z nim walczyć. Jego zdaniem, firma „absolutnie coś zrobi, aby to powstrzymać”, nazywając nakaz „szalonym” za ignorowanie obaw dotyczących prywatności milionów użytkowników, jednocześnie „dziwnie” wykluczając klientów korporacyjnych.
Z dokumentów sądowych wynika, że wykluczenie użytkowników korporacyjnych mogło mieć na celu ochronę konkurencyjności OpenAI, ale Edelson uważa, że „nie ma żadnej logiki” w ich wykluczeniu. Wykluczając tych użytkowników ChatGPT, nakaz sędziego mógł usunąć użytkowników, którzy mają największe zasoby, aby z nim walczyć.
„Oznacza to, że duże firmy, te, które mają władzę, wszystkie ich dane pozostają prywatne i nikt nie może ich dotknąć” – powiedział Edelson. Zamiast tego, nakaz „wkroczy jedynie w prywatność zwykłych ludzi”, co, zdaniem Edelsona, „jest naprawdę obraźliwe”, zważywszy, że sędzia Wang odrzuciła paniczne prośby o interwencję dwóch użytkowników ChatGPT.
“Mówimy o miliardach czatów, które teraz będą przechowywane, a wcześniej nie były” – powiedział Edelson, zauważając, że sam wprowadził informacje o swojej osobistej historii medycznej do ChatGPT. „Ludzie pytają o porady dotyczące małżeństw, wyrażają obawy o utratę pracy. Mówią naprawdę osobiste rzeczy. A jedną z umów w kontaktach z OpenAI jest to, że wolno ci usuwać czaty i masz tymczasowe czaty”.
Największym ryzykiem dla użytkowników byłoby naruszenie danych, ale to nie jedyny potencjalny problem z prywatnością. Corynne McSherry, dyrektor prawny grupy praw cyfrowych Electronic Frontier Foundation, wcześniej powiedziała Ars, że dopóki dane użytkowników są przechowywane, mogą być również ujawnione w przyszłych wnioskach organów ścigania i prywatnych sporach sądowych.
Edelson zauważył, że większość prawników zajmujących się prywatnością nie uważa CEO OpenAI, Sama Altmana, za „faceta od prywatności”, mimo że Altman ostatnio uderzył w NYT, twierdząc, że pozwali OpenAI, ponieważ „nie lubią prywatności użytkowników”.
„On próbuje chronić OpenAI i nie dba o prawa do prywatności konsumentów” – powiedział Edelson, powtarzając odrzucone obawy jednego z użytkowników ChatGPT, że OpenAI może nie priorytetowo traktować obaw użytkowników dotyczących prywatności w sprawie, jeśli jest motywowana finansowo do rozwiązania sprawy.
„Idea, że on i jego prawnicy będą tu prawdziwymi zabezpieczeniami, nie jest bardzo przekonująca” – powiedział Edelson. Skrytykował sędziów za odrzucenie obaw użytkowników i odrzucenie wniosku OpenAI, aby użytkownicy mogli zeznawać.
„To, co jest dla mnie najbardziej przerażające, to fakt, że ludzie, na których to wpływało, nie mieli w tym żadnego głosu” – podsumował Edelson.
