LightShed: nowe otwarcie w cyfrowej wojnie między artystami a AI
Świat sztuki cyfrowej i sztucznej inteligencji jest świadkiem dynamicznej rozgrywki między ochroną praw autorskich a możliwościami rozwojowymi generatywnych modeli AI. W centrum tej rywalizacji leży kwestia danych szkoleniowych, które często zawierają dzieła objęte prawami autorskimi, wykorzystywane bez zgody twórców.
Artyści, obawiając się naśladowania ich stylu i utraty niezależności, poszukują skutecznych metod obrony. W odpowiedzi na te zagrożenia, w 2023 roku pojawiły się narzędzia takie jak Glaze i Nightshade. Ich działanie polega na „zatruwaniu” danych, wprowadzając subtelne zmiany w obrazach – tzw. perturbacje – które utrudniają modelom AI poprawne interpretowanie dzieł, nie wpływając równocześnie na ich wizualną jakość dla ludzkiego oka. Shawn Shan, twórca tych rozwiązań, został za swoją pracę uhonorowany tytułem Innowatora Roku przez MIT Technology Review.
LightShed, opracowane przez zespół Hanny Foerster z Uniwersytetu Cambridge, to istotny kontratak w tej cyfrowej wojnie. Narzędzie to potrafi zidentyfikować i usunąć zmiany wprowadzone przez Glaze i Nightshade, efektywnie „oczyszczając” grafikę i przywracając jej użyteczność do celów treningowych AI. Foerster podkreśla, że celem LightShed nie jest ułatwienie kradzieży, lecz zwrócenie uwagi na iluzoryczne poczucie bezpieczeństwa, jakie mogą dawać dotychczasowe metody ochrony.
Jak działa Glaze i Nightshade?
Mechanizm działania Glaze i Nightshade opiera się na manipulowaniu granicami, które modele AI tworzą między różnymi kategoriami obrazów. Glaze powoduje, że model AI błędnie interpretuje styl grafiki (np. fotorealistyczny obraz jako kreskówkę), natomiast Nightshade zmienia rozumienie obiektu przedstawionego (np. kot na rysunku staje się psem). Glaze chroni indywidualny styl artysty, a Nightshade ma za zadanie zakłócać modele AI skanujące internet w poszukiwaniu grafik.
Potencjalne konsekwencje dla artystów
Zdolność LightShed do neutralizacji tych zabezpieczeń budzi poważne obawy w środowisku artystycznym. Szacuje się, że około 7,5 miliona artystów, w tym wielu niezależnych twórców, korzystało z Glaze, aby zabezpieczyć swoje dzieła. Dla nich, w obliczu braku jasnych regulacji prawnych dotyczących wykorzystania dzieł w treningu AI, narzędzia te stanowiły kluczową linię obrony. Autorzy LightShed postrzegają swoje badania jako ostrzeżenie, że obecne rozwiązania ochronne mogą okazać się jedynie tymczasowe.
Mimo to, twórcy Glaze i Nightshade zdają się akceptować ten stan rzeczy. Strona Nightshade od początku informowała, że narzędzie to nie gwarantuje długotrwałej ochrony. Shawn Shan uważa, że nawet tymczasowe rozwiązania mają sens jako środek odstraszający. Jego zdaniem, celem jest postawienie jak największej liczby przeszkód, tak aby firmom AI bardziej opłacało się nawiązywać współpracę z artystami zamiast korzystać z ich prac bez zgody.
Hanna Foerster, bazując na doświadczeniach z LightShed, planuje rozwój nowych form obrony dla artystów. Jej koncepcje obejmują inteligentne znaki wodne, które miałyby pozostać w dziele, nawet po przetworzeniu przez model AI. Choć to również nie jest rozwiązanie permanentne, może przesunąć szalę na korzyść twórców w dynamicznie zmieniającym się krajobrazie sztuki cyfrowej i sztucznej inteligencji.
