Rada Nadzorcza Meta, półniezależna rada odpowiedzialna za przegląd decyzji politycznych firmy, skupiła się ostatnio na obsłudze wyraźnych obrazów generowanych przez sztuczną inteligencję na Instagramie i Facebooku.
Posunięcie to jest odpowiedzią na obawy dotyczące skuteczności systemów moderacji Meta w wykrywaniu nieodpowiednich treści i reagowaniu na nie.
Przyjrzyjmy się szczegółom tych badań i szerszym implikacjom, jakie ze sobą niosą.
Zaglądanie do spraw
Według Raport TechCrunchaw jednym przypadku użytkownik zgłosił na Instagramie nagość osoby publicznej wygenerowaną przez sztuczną inteligencję, jednak systemom Meta nie udało się go natychmiast usunąć. Pomimo wielokrotnych zgłoszeń, budząca zastrzeżenia treść pozostała do czasu interwencji Rady Nadzorczej.
Podobnie na Facebooku grupa skupiona na sztucznej inteligencji udostępniła wyraźny, wygenerowany przez sztuczną inteligencję obraz przypominający amerykańską osobę publiczną. Chociaż Meta ostatecznie usunęła zdjęcie, nadal pozostają pytania dotyczące skuteczności procesów moderacji.
The Rada Nadzorczawybór spraw z Indii i Stanów Zjednoczonych podkreśla szersze obawy dotyczące polityki platformy Meta i praktyk egzekwowania prawa. Badając globalny wpływ treści generowanych przez sztuczną inteligencję, szczególnie na bezpieczeństwo kobiet, zarząd dąży do zapewnienia równej ochrony we wszystkich regionach.
Deepfake to plaga naszych czasów
Rozpowszechnianie się fałszywego porno i przemocy ze względu na płeć w Internecie dodaje kolejny poziom złożoności. Dzięki narzędziom AI umożliwiającym tworzenie treści dla dorosłych platformy stają przed wyzwaniami w zakresie szybkiego wykrywania i usuwania szkodliwych materiałów. W regionach takich jak Indie, gdzie wzrosła liczba deepfake’ów wymierzonych w aktorki, oczywista staje się potrzeba wprowadzenia solidnych środków regulacyjnych.
Eksperci podkreślają pilną potrzebę wdrożenia rygorystycznych środków w celu ograniczenia rozprzestrzeniania treści jawnych generowanych przez sztuczną inteligencję. Od ograniczania wyników modelu AI po wprowadzenie domyślnego etykietowania w celu łatwego wykrywania – proaktywne kroki mają kluczowe znaczenie w ograniczaniu szkód. Jednak krajobraz prawny pozostaje fragmentaryczny i tylko kilka jurysdykcji uchwala przepisy dotyczące konkretnie pornografii generowanej przez sztuczną inteligencję.
Pamiętacie sagę „Shrimp Jesus”?
W trakcie tych dochodzeń Facebook zostaje uwikłany w osobliwą sagę – pojawienie się obrazów generowanych przez sztuczną inteligencję, w tym przedstawiających Jezusa jako krewetkę. Te surrealistyczne dzieła, często pochodzące z przejętych stron, podkreślają skrzyżowanie technologii sztucznej inteligencji i manipulacji w mediach społecznościowych.
Motywy stojące za tym zalewem treści generowanych przez sztuczną inteligencję pozostają niejednoznaczne. Niektórzy spekulują na temat potencjalnych oszustw, inni postrzegają to jako dążenie do wirusowej sławy. Niemniej jednak nadal istnieją obawy dotyczące niewłaściwego wykorzystywania obrazów syntetycznych w kampaniach dezinformacyjnych.
Krok, który należy podjąć
Badania Rady Nadzorczej dotyczące obrazów generowanych przez sztuczną inteligencję na platformach Meta rzucają światło na zmieniające się wyzwania związane z moderacją treści w epoce cyfrowej. W miarę postępu technologii i coraz większej dostępności narzędzi sztucznej inteligencji konieczność ochrony użytkowników przed szkodliwymi treściami staje się coraz pilniejsza. Obowiązkiem platform takich jak Facebook jest przyjęcie proaktywnych środków i zapewnienie bezpieczniejszego środowiska online dla wszystkich użytkowników.
Autor wyróżnionego obrazu: Meta