Jak podaje Graphika, znaczny wzrost liczby fałszywych usług związanych z nagością opartych na sztucznej inteligencji wskazuje na niepokojącą tendencję w zakresie wykorzystania sztucznej inteligencji do generowania intymnych obrazów bez zgody, budząc poważne wątpliwości etyczne i prawne.
Rosnąca popularność narzędzi do rozbierania AI
Graphika, firma zajmująca się analizą mediów społecznościowych, już to zrobiła zgłoszone niepokojący wzrost wykorzystania narzędzi „rozbierania AI”. Te generatywne narzędzia sztucznej inteligencji są precyzyjnie kalibrowane pod kątem usuwania ubrań ze zdjęć przesyłanych przez użytkowników, przy oszałamiającym wzroście odniesień do tych usług w Internecie o 2408%.
Syntetyczne obrazy intymne wykonane bez zgody (NCII) zazwyczaj obejmują generowanie treści wulgarnych bez zgody przedstawionych osób. Narzędzia te stwarzają zagrożenie ukierunkowanym molestowaniem, wymuszeniami na tle seksualnym i produkcją materiałów przedstawiających wykorzystywanie seksualne dzieci (CSAM).
Internet Watch Foundation (IWF), brytyjska firma zajmująca się monitorowaniem Internetu, podjęła taką decyzję podświetlony wyzwanie polegające na rozróżnieniu między pornografią generowaną przez sztuczną inteligencję a autentycznymi obrazami, co komplikuje wysiłki mające na celu zwalczanie nadużyć w Internecie.
Międzynarodowa odpowiedź
Organizacja Narodów Zjednoczonych ma opisane Media generowane przez sztuczną inteligencję jako „poważne i pilne” zagrożenie dla integralności informacji. W odpowiedzi Parlament Europejski i Rada uzgodniły niedawno zasady regulujące wykorzystanie sztucznej inteligencji w UE.