Przełomowe orzeczenia sądowe: czy LLM-y mogą swobodnie korzystać z chronionych treści?
W minionych tygodniach zapadły w Kalifornii pierwsze istotne wyroki w sprawach dotyczących korzystania z materiałów chronionych prawem autorskim przez modele sztucznej inteligencji. Federalni sędziowie orzekli na korzyść firm Anthropic i Meta, uznając, że szkolenie dużych modeli językowych (LLM) na książkach objętych prawami autorskimi jest dopuszczalne. Decyzje te, choć wydają się przełomowe, stanowią jedynie wstęp do długiej i skomplikowanej batalii prawnej, której wynik zaważy na kształcie rynku AI.
Spór o dozwolony użytek
Wielu twórców i podmiotów posiadających prawa autorskie domaga się wynagrodzenia za wykorzystanie ich dzieł do trenowania algorytmów AI. Argumentują oni, że generatywna sztuczna inteligencja, interpretując ich prace, czerpie z nich zyski. Ponadto, wyrażają obawy, że wyniki generowane przez AI mogą zbytnio przypominać ich oryginalne dzieła, naruszając tym samym monopol twórców na utwory pochodne.
W tym kontekście kluczową rolę odgrywa amerykańska doktryna „dozwolonego użytku” (fair use). Prawo autorskie w USA, zdefiniowane w Copyright Act, przyznaje twórcom wyłączne prawo do reprodukcji, dystrybucji i publicznego wykonywania ich materiałów. Wyjątek stanowi jednak właśnie dozwolony użytek, który legalizuje wykorzystanie materiału bez licencji w celach takich jak komentarz, krytyka, raportowanie wiadomości, edukacja, a także transformacja w coś nowego i odrębnego, służącego innemu celowi niż forma pierwotna.
Zarówno Anthropic, jak i Meta, w swoich liniach obrony, argumentowały, że szkolenie ich LLM-ów na materiałach chronionych prawem autorskim nie narusza ustawy o prawie autorskim, ponieważ modele te przekształcają oryginalną treść autorów w coś zupełnie nowego.
Wyrok na korzyść Anthropic
Sędzia federalny William Alsup, rozpatrujący sprawę przeciwko Anthropic, uznał, że wykorzystanie książek do szkolenia modeli Anthropic było „niezwykle transformacyjne”, a zatem kwalifikuje się jako dozwolony użytek. To orzeczenie, zdaniem Roba Rosenberga, prawnika specjalizującego się w prawie własności intelektualnej, jest „przełomowym precedensem”. Nie oznacza to jednak całkowitego zwycięstwa dla Anthropic.
Sędzia Alsup wyraźnie rozróżnił książki, za które Anthropic zapłaciło, od pirackiej biblioteki zawierającej ponad 7 milionów książek, również wykorzystanych do szkolenia chatbota Claude. W odniesieniu do materiałów pozyskanych z pirackiego źródła, sędzia stwierdził, że Anthropic musi stawić czoła zarzutom autorów o naruszenie ich praw autorskich. Warto zaznaczyć, że w przypadku stwierdzenia umyślnego naruszenia, kary ustawowe mogą sięgać nawet 150 000 dolarów za jedno naruszenie. W skrajnym przypadku, gdyby Anthropic zostało uznane za odpowiedzialne za celowe wykorzystanie 7 milionów książek, maksymalne dopuszczalne kary mogłyby przekroczyć bilion dolarów, choć takie sumy rzadko są faktycznie nakładane. Postępowanie w sprawie pozwu zbiorowego prowadzonego przez trzech autorów jest w toku, a decyzja o jego certyfikacji jest wciąż oczekiwana.
Ograniczone zwycięstwo Meta
W przypadku Meta, sędzia federalny Vince Chhabria podjął bardziej ograniczone rozstrzygnięcie. Odrzucił on argumenty grupy 12 autorów, w tym satyryczki Sarah Silverman, którzy pozwali firmę w związku z wykorzystaniem ich książek do szkolenia modelu językowego Llama. Sędzia Chhabria uznał, że autorzy przedstawili „błędne argumenty”, co uniemożliwiło mu orzekanie o naruszeniu praw autorskich.
Co istotne, sędzia Chhabria skrytykował analizę sędziego Alsupa, nazywając ją „niekompletną” ze względu na „pominięcie” kwestii wpływu na rynek. Podkreślił, że w doktrynie dozwolonego użytku, szkoda dla rynku dzieła chronionego prawem autorskim jest ważniejsza niż cel, w jakim kopie zostały wykonane.
Co dalej?
Oba orzeczenia należą do pierwszych w Stanach Zjednoczonych, które bezpośrednio odnoszą się do skomplikowanych i wciąż nieuregulowanych kwestii dotyczących zakresu, w jakim LLM-y mogą polegać na chronionych dziełach. Eksperci prawa własności intelektualnej, tacy jak Courtney Lytle Sarnow, przewidują, że spory te ostatecznie trafią do Sądu Najwyższego Stanów Zjednoczonych. “Jest za wcześnie, by Anthropic i podobne firmy ogłaszały pełne zwycięstwo” – zauważa Randolph May, prezes Free State Foundation.
Anthropic wciąż mierzy się z innymi poważnymi wyzwaniami prawnymi. Na początku czerwca firmę pozwał Reddit, zarzucając celowe przetwarzanie danych osobowych użytkowników bez ich zgody i wykorzystywanie ich do szkolenia Claude’a. Anthropic broni się również przed pozwem wydawców muzycznych, w tym Universal Music Group i ABKCO, zarzucającymi naruszenie praw autorskich do tekstów ponad 500 piosenek, w tym utworów Beyoncé i The Rolling Stones, podczas szkolenia Claude’a.
Te precedensowe sprawy są kluczowe dla ukształtowania ram prawnych, w których będzie rozwijać się generatywna sztuczna inteligencja. Wynik tych batalii zadecyduje o tym, czy dostęp do dóbr kultury pozostanie otwarty dla innowacji AI, czy też twórcy odzyskają pełną kontrolę nad swoimi dziełami w erze cyfrowej. Z pewnością czekają nas kolejne lata intensywnych sporów sądowych, które ukształtują przyszłość AI i prawa autorskiego.
