- Narzędzie AI Meta Imagine zostało skrytykowane za trudności w tworzeniu obrazów par lub przyjaciół międzyrasowych
- Podobnie jak w przypadku incydentu z Gemini, Imagine ma trudności z dokładnym przedstawieniem relacji międzyrasowych
- Meta zdaje sobie sprawę z problemu i obiecuje wyeliminować stronniczość w systemach AI poprzez opinie użytkowników i ulepszenia
- Wątpliwości etyczne dotyczące narzędzi do renderowania AI podkreślają potrzebę, aby giganci technologiczni potraktowali priorytetowo przejrzystość i skutecznie zajęli się uprzedzeniami rasowymi
W branży sztucznej inteligencji panuje zamieszanie między narzędziem Meta do tworzenia sztucznej inteligencji Imagine a Meta AI, Sora i DALL-E 3. Według ostatnich raportów narzędzie Meta AI było krytykowane za problemy z tworzeniem obrazów par lub przyjaciół międzyrasowych.
W testach przeprowadzonych przez CNN narzędzie generowało obrazy par tej samej rasy zamiast par międzyrasowych. Przypomina to incydent z Gemini, o którym pisaliśmy wcześniej. Gemini również wpadło na podobny problem i spotkało się ze świetną reakcją.
Oto wszystko, co musisz wiedzieć…
Wyobraź sobie, że Meta AI nie może generować obrazów ludzi różnych ras
Wraz z rozwojem technologii sztuczna inteligencja stała się powszechna w każdej branży, także w narzędziach do kreowania wizerunku.
Wchodząc w szczegóły testów, narzędzie renderujące AI podobno miało problemy z renderowaniem obrazów par Azjaci-Biali, Czarno-Biali i Azjaci-Czarni.
Meta potwierdziła problem i połączyła się z plikiem post na blogu opublikowany we wrześniu na temat odpowiedzialnego tworzenia wydajnych funkcji AI. W wpisie na blogu firmy napisano:
„Podejmujemy kroki, aby zmniejszyć stronniczość. Rozwiązanie problemu potencjalnych błędów w produktywnych systemach sztucznej inteligencji to nowy obszar badań. Podobnie jak w przypadku innych modeli sztucznej inteligencji, zwiększenie liczby osób korzystających z tych funkcji i dzielących się opiniami może pomóc nam udoskonalić nasze podejście”.
Giganci technologiczni muszą zrobić więcej, aby wyeliminować uprzedzenia rasowe w modelach AI.
Tymczasem Sora, narzędzie do produkcji wideo OpenAI, wydało nowy teledysk. Mogę powiedzieć, że naprawdę wykonał niesamowitą robotę. Z drugiej strony dyrektor generalny YouTube Neal Mohan ostrzegł OpenAI przed szkoleniem Sory. Ostrzeżenie pojawiło się po tym, jak CTO OpenAI Mira Murati nie odpowiedziała na pytanie: „Czy Sora był szkolony, korzystając z filmów na YouTube?– zapytała w zeszłym miesiącu Joanna Stern z „Wall Street Journal”.
Poniżej możecie obejrzeć teledysk wyprodukowany przez Sorę:
Chociaż narzędzia do tworzenia obrazów AI są ekscytujące ze względu na swoje możliwości, poruszają również ważne kwestie etyczne, takie jak uprzedzenia rasowe. Giganci technologiczni muszą zrobić więcej, aby rozwiązać te problemy i działać w sposób przejrzysty.
Autor wyróżnionego obrazu: Dima Solomin / Unsplash
Source: Generator obrazów AI Meta nie tworzy obrazów par międzyrasowych