Według FortunaAnthropic, wiodące laboratorium sztucznej inteligencji (AI), stoi przed pozwem zbiorowym, który mógłby spowodować odszkodowanie w zakresie praw autorskich o wartości wielu miliardów dolarów ze względu na domniemane użycie pirackich książek z bibliotek Shadow, takich jak Libgen i Pilimi w celu wyszkolenia swojego dużego modelu języka, Claude. Pozew twierdzi, że antropijne pobrane miliony chronionych prawem autorskim prac z zamiarem zbudowania „biblioteki centralnej” książek cyfrowych, mających na celu uwzględnienie „wszystkich książek na świecie” i zachowanie ich na czas nieokreślony.
Powodowie w sprawie, w tym autorzy Andrea Bartz, Charles Graeber i Kirk Wallace Johnson, twierdzą, że znaczna część tych prac uzyskano z stron piractwa, bezpośrednio naruszające prawo autorskie. Legal Battle koncentruje się na metodach stosowanych przez antropic do zdobycia danych szkoleniowych.
Sędzia William Alsup, przewodniczący tej sprawy, wydał znaczące orzeczenie, że szkolenia modeli AI na pozyskiwanych praw zgodnie z prawem kwalifikuje się jako „dozwolone użycie”. Ta decyzja, postrzegana jako ważna wygrana dla sektora AI, sugeruje, że firmy AI nie wymagają licencji od posiadaczy praw autorskich na takie szkolenie. Jednak narysowano krytyczne rozróżnienie w odniesieniu do pozyskiwania materiałów. Rozwiązany problem pozostaje sposób, w jaki antropiczny uzyskał i przechowywał książki chronione prawem autorskim, szczególnie te z nieautoryzowanych źródeł.
Sędzia Alsup wskazał, że oddzielnie zostanie przeprowadzony specjalnie w celu rozwiązania problemu „pirackich kopii” i „wynikających z tego szkód”. Luke McDonagh, profesor prawa w LSE, wyjaśnił niuans, stwierdzając: „Wydaje się, że sędzia sugeruje, że gdybyś kupił milion książek od Amazon w formie cyfrowej, to możesz przeprowadzić szkolenie, a to byłoby legalne, ale to pobieranie z pirackiej strony internetowej jest problemem, problem, który jest problemem, jest problemem, który jest problemem, jest to problem, który jest problemem.
Ed Lee, profesor prawa w Santa Clara, skomentował w poście na blogu, że orzeczenie może narazić antropijne na „przynajmniej potencjał odpowiedzialności przedsiębiorstw”. Podczas gdy powodowie raczej nie potwierdzą bezpośredniej szkody finansowej, takich jak utracona sprzedaż, oczekuje się, że będą realizować ustawowe odszkodowanie. Uszkodzenia te mogą wynosić od 750 do 150 000 USD za pracę, przy czym wyższy koniec zarezerwowany w przypadkach, w których naruszenie jest uważane za umyślne.
Potencjalne konsekwencje finansowe dla antropika są znaczne. Chociaż dokładna liczba prac zawartych w akcji zbiorowej i czy umyślne naruszenie zostanie udowodnione, pozostaje niepewna, eksperci prawni szacują potencjalne szkody mogą wynosić od setek milionów do dziesiątek miliardów dolarów. Nawet w dolnej części Lee sugeruje, że szkody od 1 miliarda do 3 miliardów dolarów są możliwe, jeśli w akcji zbiorowej uwzględniono tylko 100 000 prac. Liczba ta rywalizuje z największymi nagrodami od szkód autorskich do rekordów i może znacznie przekroczyć obecne roczne przychody w wysokości 4 miliardów dolarów. Lee ponadto oszacował, że jeśli jury uzna, że firma umyślnie piracka 6 milionów książek o prawach autorskich, odpowiedzialność może gwałtownie wzrosnąć do 1,05 bln USD.
Anthropic nie publicznie skomentował najnowszych osiągnięć, ale wcześniej stwierdził, że „z szacunkiem nie zgadza się” z decyzją sędziego Alsupa i bada jego opcje, w tym odwołanie lub ugodę.
Proces, który jest pierwszą certyfikowaną akcją zbiorową przeciwko firmie AI dotyczącymi stosowania materiałów chronionych prawem autorskim, zaplanowano na 1 grudnia. Jego wynik może ustalić precedens dla podobnych trwających spraw, takich jak głośne spór między OpenAI i różnymi autorami i wydawcami.
Istnieje rozbieżność opinii sądowych dotyczących nabycia dzieł chronionych prawem autorskim z miejsc cieni. W oddzielnej sprawie dotyczącej praw autorskich przeciwko meta, sędzia Vince Chhabria argumentował, że transformacyjny cel używania AI może legitymizować wstępne nieautoryzowane pobieranie. McDonagh zauważył, że orzeczenie sędziego Chhabria zasugerowało, że pozytywne, transformacyjne użycie dzieł może „poprawić” początkowe problematyczne przejęcie. Natomiast sędzia Alsup postrzega pobieranie książek z nieautoryzowanych bibliotek cieni jako „z natury złego”, co oznacza, że nawet jeśli szkolenie AI jest uważane za dozwolone użycie, początkowe nabycie dzieł było nielegalne i wymaga rekompensaty.
Sędziowie różnili się również tym, czy wyjścia generowane przez AI konkurują z oryginalnymi pracami chroniącymi prawem autorskim używanym w ich danych szkoleniowych. Sędzia Chhabria przyznał, że taka konkurencja może osłabić obronę dozwolonego użycia, ale znalazła niewystarczające dowody szkody rynkowej w sprawie meta. Sędzia Alsup stwierdził, że generatywne wyniki AI w ogóle nie konkurują z oryginalnymi pracami.
Obecna administracja USA opowiada się za szerokim ochroną użytkowania dla firm AI korzystających z materiałów chronionych prawem autorskim, co jest strategicznym ruchem mającym na celu utrzymanie przywództwa USA w sztucznej inteligencji.
Pomimo znacznych potencjalnych szkód McDonagh wyraził sceptycyzm, że pozew doprowadziłby do bankructwa antropiku. Zasugerował, że Sąd Najwyższy Stanów Zjednoczonych, obecnie postrzegany jako zgodny z programem administracji Trumpa, prawdopodobnie uniemożliwiłby orzeczenie, które może zdemontować firmę AI. Ponadto sądy zasadniczo unikają wydawania orzeczeń, które mogłyby spowodować upadłość, chyba że istnieje silna podstawa prawna, a działanie zostanie uznane za absolutnie konieczne. Sądy często rozważają potencjalny wpływ na spółkę i jej interesariuszy, wydając orzeczenia, które mogą prowadzić do likwidacji.
McDonagh doszedł do wniosku: „Antropic jest teraz wyceniany, w zależności od różnych szacunków, od 60 do 100 miliardów dolarów. Zatem zapłacenie kilku miliardów autorom w żadnym wypadku bankrutuje organizację”.
Source: Antropiczny stoi w obliczu miliardów w pozwie o prawa autorskie do szkolenia AI





