Prawo

Przełomowa decyzja sądu kontra Meta: Llama i wyzwania praw autorskich

Trzynastu autorów, w tym laureaci Nagrody Pulitzera, Junot Díaz i Andrew Sean Greer, pozwało Metę, zarzucając jej bezprawne wykorzystanie ich dzieł do trenowania modeli Llama. Sąd oddalił roszczenia, wskazując na brak wystarczających dowodów, jednocześnie jasno precyzując, że orzeczenie dotyczy wyłącznie tych konkretnych powodów i nie tworzy szerokiego precedensu dla całej branży. Kluczową kwestią było ustalenie, czy trenowanie dużych modeli językowych na materiałach chronionych prawem autorskim kwalifikuje się jako „dozwolony użytek” w świetle amerykańskiego prawa.

Sąd uznał działanie Mety za „wysoce transformacyjne”, argumentując, że modele generują nowy tekst na podstawie danych wejściowych od użytkowników, a nie po prostu publikują książki. Fakt, że Meta mogłaby uzyskać do 1,4 biliona dolarów przychodu z Llama w ciągu najbliższych dziesięciu lat, choć osłabiał argument o dozwolonym użytku, ostatecznie nie przeważył szali.

Wątłe dowody na szkodę rynkową i kwestie licencyjne

Największe kontrowersje wzbudziła kwestia, czy praktyki Mety w zakresie trenowania modeli szkodzą rynkowi oryginalnych dzieł. Autorzy utrzymywali, że nielicencjonowane trenowanie AI podważa wartość licencjonowania i może doprowadzić do zalania rynku imitacjami generowanymi przez sztuczną inteligencję. Sąd odrzucił oba argumenty, stwierdzając, że samo istnienie rynku licencjonowania nie jest dowodem na naruszenie, a powodowie nie przedstawili niezbitych dowodów na to, że Llama faktycznie szkodzi sprzedaży.

Meta próbowała uzyskać licencje od wydawców, napotykając jednak na trudności prawne i organizacyjne. W rezultacie firma zasięgnęła materiałów źródłowych z „cieniowych bibliotek”, takich jak LibGen i Anna’s Archive. Meta wdrożyła zabezpieczenia, aby zapobiec kopiowaniu długich fragmentów tekstu dosłownie; nawet przy ukierunkowanych promptach, testy wykazały, że model nie reprodukował więcej niż około 50 słów z książek.

Choć sąd przyznał, że pozyskiwanie książek z pirackich stron jest problematyczne, orzekł, że sam ten fakt nie wyklucza dozwolonego użytku. Istotne jest bowiem to, w jaki sposób dane są wykorzystywane, a nie tylko ich pochodzenie. Ta perspektywa stawia orzeczenie w kontraście do poglądu sędziego Williama Alsupa, który w równoległej sprawie przeciwko Anthropicowi zajął znacznie bardziej rygorystyczne stanowisko. Alsup argumentował, że trenowanie modeli na książkach z pirackich stron, takich jak Books3 czy LibGen, nie kwalifikuje się jako dozwolony użytek, podkreślając, że intencja budowania legalnego produktu nie usprawiedliwia łamania prawa w celu jego uzyskania.

Brak otwartej furtki dla firm AI

Sąd jasno podkreślił, że obecne orzeczenie nie stanowi szerokiej aprobaty dla używania książek chronionych prawem autorskim w trenowaniu AI. Sędzia Vince Chhabria zauważył, że powodowie „powzięli niewłaściwe argumenty i nie zdołali stworzyć dokumentacji na poparcie słusznego”. Pozostawił otwartą furtkę dla przyszłych pozwów od autorów, którzy będą w stanie przedstawić mocniejsze dowody na szkodę rynkową.

Obawa, że modele AI mogłyby masowo generować książki w określonych gatunkach, potencjalnie obniżając sprzedaż dzieł ludzkich autorów, pozostaje realnym problemem, który może stać się centralnym punktem przyszłych spraw. Sąd wyjaśnił również, że zakaz trenowania AI na materiałach chronionych prawem autorskim nie jest wymagany prawem – firmy mogą po prostu potrzebować płacić za licencje.

Sędzia Chhabria wykorzystał okazję, by skrytykować zarówno branżę technologiczną, jak i innych sędziów, odrzucając twierdzenia, że surowsze zasady dotyczące praw autorskich spowolnią rozwój AI, jako „śmieszne”. Jego stanowisko jest jasne: „Jeśli wykorzystywanie dzieł chronionych prawem autorskim do trenowania modeli jest tak niezbędne, jak twierdzą firmy, to znajdą sposób, aby wynagrodzić posiadaczy praw autorskich”.

Chhabria odniósł się również krytycznie do swojego kolegi, sędziego Williama Alsupa, który w równoległej sprawie przeciwko Anthropicowi porównał trenowanie AI do dzieci czytających książki. Chhabria nazwał to „nieadekwatną analogią”, wskazując, że model AI może generować nieskończoną liczbę konkurujących ze sobą dzieł przy minimalnym wysiłku i kreatywności. Zakończył, pozostawiając przyszłe sprawy szeroko otwarte: choć trenowanie AI może być transformacyjne, „trudno sobie wyobrazić, że może być dozwolonym użytkiem wykorzystywanie książek chronionych prawem autorskim do tworzenia narzędzia do zarabiania miliardów lub bilionów dolarów, jednocześnie umożliwiając tworzenie potencjalnie nieskończonego strumienia konkurujących dzieł, które mogłyby znacząco zaszkodzić rynkowi tych książek”.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *