Martwienie celebrytów związane z publicznością nie kończy się już paparazzi ani wyciekającymi skryptami i piosenek. W dzisiejszych czasach tracą sen z myślą o przebudzeniu, by znaleźć głos, opowiadając o produkcie, którego nigdy nie poparli, w języku, w którym nie mówią, lub w filmie, w którym nie działali (co za koszmar, eh?).
Na razie skupiono się na aktorstwie głosowym, jako zaawansowane narzędzia do klonowania głosu AI, takie jak Elevenlabs, Regeecher i Playht, mogą stworzyć realistyczną wersję głosu celebryty w niecałej minucie oryginalnego dźwięku źródłowego.
Głosy mogą bez problemu replikować emocje, kadencję, fleksję, a nawet wzorce wahania mówcy. Dlatego to, co kiedyś było domeną wysokiej klasy Hollywood Studios, jest teraz dostępne dla każdego, kto ma kartę kredytową i próbkę głosową.
Gwiazdy nie uważają, że użycie tych maszyn klonowych jest fajne i są prawnicze. Chociaż może to wydawać się magia technologiczna dla zwykłych użytkowników, bardziej przypomina kradzież tożsamości dla osób publicznych, których głos jest częścią ich marki i środków do życia.
Kreatywny koszmar zwany klonowaniem głosowym
W 2024 r. Scarlett Johansson zagroził działaniami prawnymi po tym, jak Openai wydał asystenta głosowego Chatgpt, który zbyt blisko jej przypominał ją bez jej zaangażowania. Nie była pierwsza, która odepchnęła i nie będzie ostatnia. Wiele nazw list A publicznie narysowało linię, jeśli chodzi o klonowanie głosu w ciągu ostatnich 18 miesięcy.
Kiedy jego wersja AI została użyta do promowania planu dentystycznego w 2023 r., Tom Hanks szybko wypowiedział się i poinformował świata, że „nie ma z tym nic wspólnego”. Klonowanie głosu AI może być tak realistyczne, że Fałszywy Drake i The Weeknd Song Stworzone przez AI zyskały miliony strumieni, zanim zostaną wyciągnięte z powodu obaw związanych z prawem autorskim. Podczas gdy utwór był hitem, żaden artysta nie wyraził zgody i żaden z nich nie czerpał korzyści z wirusowości.
Taylor Swift to kolejna piosenkarka, która była ofiarą tego trendu klonowania głosu. Krótko przed wydaniem jej „Departamentu Torturowanego Poetów” w zeszłym roku niektóre tak zwane wyciekające piosenki dotarły do mediów społecznościowych.
Zanim album został wydany, stało się niezaprzeczalnie jasne dla wszystkiego, co kupiło mistyfikację, że utwory „wyciekające” były generowane AI.

Jak walczą gwiazdy
Fakt, że klony te naśladują stany emocjonalne i rozczucia mowy, sprawia, że technologia jest atrakcyjna dla twórców mediów, ale prawnie zmienna, gdy jest używana bez zgody. Podczas strajku SAG-Aftra w 2023 r., Kluczową kwestią była zabezpieczenia wokół podobieństwa głosowego. Związek dążył do języka kontraktowego, który zakazałby korzystania z występów generowanych przez AI (szczególnie pośmiertnych) bez zgody i rekompensaty. W ramach ostatecznej umowy aktorzy mają teraz pewien stopień kontroli nad tym, jak ich tożsamość wokalna jest wykorzystywana lub odtwarzana.
Nie chodzi tylko o ego celebrytów. Kiedy marka, zwiastun filmu lub kampania polityczna mogą zawierać czyjś sklonowany głos bez ich zaangażowania, ich reputacja i dochody są bezpośrednio zagrożone. A ponieważ te narzędzia są skierowane publicznie, to nie tylko duże studia-każdy może niewłaściwie użyć głosu.
Czy są jakieś wysiłki kontrolne?
Platformy takie jak Elevenlabs próbowały wprowadzić ramy licencyjne. Biblioteka głosowa pozwala zweryfikowanym aktorom głosowym licencjonować swoje głosy do użytku komercyjnego. System twórcy, użytkownicy na tych platformach zachowują prawa, a każde żądanie użycia jest śledzone i zarabiane.
Podobnie Replica Studios opracowało płatną syntetyczną usługę głosową, w której programiści mogą kupować występy z wyselekcjonowanej biblioteki zatwierdzonych głosów.
Ale egzekwowanie pozostaje słabe. Nawet przy warunkach świadczenia usług, które zabraniają nieautoryzowanego użytku, platformy te w dużej mierze opierają się na samokontroli. Jeśli ktoś przesyła i klonuje głos celebrytki bez zgody, często wymaga to ręcznego zgłaszania lub eskalacji prawnej.
Twoja ulubiona celebrytka, ponownie wyobrażona jako twój pomocnik AI?
Rośnie zainteresowanie stosowaniem sklonowanych głosów nie tylko w mediach statycznych, ale w systemach interaktywnych. Towarzysze AI, wirtualni doradcy i „boty w relacjach” stają się niszą komercyjną. Już, Usługi takie jak Candy AI A Aid AI używają tekstu do mowy do zasilania głęboko spersonalizowanych czatów głosowych. Niektóre integrują nawet funkcje z tymi szczegółami, które mogą symulować ekspresyjne rozmowy, i nietrudno wyobrazić sobie wersję, w której głos celebryty, prawnie licencjonowany, zasila jeden z tych systemów.
Otwiera to potencjalny nowy rynek licencjonowania głosu celebrytów: praca głosowa opartą na postaciach, która żyje poza filmem, muzyką lub tradycyjnymi poparciem. Jest to krok w kierunku przekształcenia głosu w trwałą, licencjonowaną warstwę tożsamości.
Ale aby to zrobić zgodnie z prawem, platformy wymagałyby bezpiecznego przypisania, inteligentnych umów, zarządzania zgodą i standardów znakowania wodnego. Obecnie żadna z nich nie istnieje na poziomie branżowym i dopóki nie nastąpi jasne ramy, użycie słynnych głosów w AI Companions pozostaje etyczną i prawną strefą szarej.

Głos jako własność intelektualna
Dla przeciętnej osoby głos jest częścią wyrażania siebie. Dla celebrytów jest to coś więcej: zasób, marka, pole bitwy. Gdy naśladowce AI są lepsze, jesteśmy zmuszeni skonfrontować się z tym, co oznacza własność w erze cyfrowej.
Czy twój głos może zostać wynajęty? Czy można go skradzić?
Oczywiste jest, że mowa syntetyczna nie zniknie. Pytanie brzmi teraz, kto może z niego czerpać korzyści i na jakich warunkach. Niezależnie od tego, czy dzięki licencjonowaniu rynków, ustawodawstwie federalnym czy negocjacjach zbiorowych głos staje się mniej cechą ludzką, a bardziej towarem. W tym świetle wahanie celebrytów nie jest paranoją. To dobry biznes.
Source: Gwiazdy powinny zacząć licencjonować swoje akty klonowania głosu AI





