Kontrowersje wokół projektu Google „Gemini AI wake” wywołały niedawno debatę na temat ograniczeń sztucznej inteligencji i jej wysiłków na rzecz zrównoważenia zróżnicowanej reprezentacji z dokładnością historyczną.
Kontrowersje doprowadziły do debat na temat potencjalnych stronniczości w sztucznej inteligencji, a także pytań o równowagę między celami różnorodności a reprezentacją faktów. Oto wszystkie szczegóły…
Gemini AI wzbudziła kontrowersje: wszystko, co musisz wiedzieć
Kontrowersje zaczęły się, gdy Google pozwolił Gemini AI generować obrazy ludzi. Sztuczna inteligencja często przedstawiała osoby kolorowe w historycznie białych kontekstach (na przykład obrazy Wikingów przedstawianych wyłącznie jako czarne). Doprowadziło to do oskarżeń o nieścisłości i debaty na temat roli celów różnorodności w systemach AI. W odpowiedzi Google tymczasowo wyłączył możliwość tworzenia obrazów ludzi przez generator obrazów.
Co poszło nie tak z Gemini AI?
Google niedawno przyznało swój model Gemini AI „przegapił znak„. Kontrowersje dotyczą obrazów wytwarzanych przez sztuczną inteligencję, w których priorytetem jest różnorodność rasowa i płciowa, nawet jeśli poświęcana jest dokładność historyczna. Doprowadziło to do takich sytuacji jak:
- Wikingowie byli przedstawiani wyłącznie jako Czarni.
- George Washington był przedstawiany jako czarny.
- Papieże są pokazani jako osoby inne niż biały.
- Niepowodzenie w tworzeniu obrazów białych postaci historycznych, takich jak Abraham Lincoln.
Głosy w debacie
Kontrowersje dotyczące przebudzenia sztucznej inteligencji Gemini wywołały szereg reakcji. Prawicowi komentatorzy przedstawiają tę kwestię jako dowód antybiałych uprzedzeń w Big Tech, często wykorzystując sytuację do celów politycznych. Eksperci ds. sztucznej inteligencji, tacy jak Gary Marcus, postrzegają to jako awarię samego oprogramowania, podkreślając brak szczegółowego zrozumienia generatywnych systemów sztucznej inteligencji.
Przyznając się do problemu, Google wyjaśnia, że jest to próba zmuszenia Gemini do odzwierciedlenia globalnej bazy użytkowników. Pracują nad poprawkami i podkreślają potrzebę większej niuansów w interpretowaniu i przedstawianiu kontekstów historycznych.
Jaki jest algorytm Gemini AI?
Gemini AI to potężne narzędzie Google AI, które tworzy oryginalne obrazy na podstawie opisów tekstowych. Jest częścią większej rodziny modeli Gemini, znanych ze swoich zaawansowanych możliwości. Gemini AI wykorzystuje przetwarzanie języka naturalnego (NLP), aby zrozumieć żądania użytkowników i zastosować swoją ogromną wiedzę, tworząc wizualizacje dopasowane do wejściowych słów kluczowych.
Jak korzystać z Gemini AI?
Obecnie dostęp do Gemini AI jest ograniczony. Jednak podobne narzędzia do generowania obrazów często działają w oparciu o następujące kroki:
- Podaj opis tekstowy: Bądź tak szczegółowy i kreatywny, jak to tylko możliwe, aby uzyskać najlepsze rezultaty.
- Ustawianie parametrów (opcjonalnie): niektóre narzędzia umożliwiają wybranie stylu, rozdzielczości lub proporcji obrazu.
- Generować: AI przetwarza Twoją prośbę i tworzy kilka opcji obrazu na podstawie Twojego opisu.
Wyzwania reprezentacji AI
Incydent związany z przebudzeniem AI w Gemini uwypukla trudność w zrównoważeniu pozytywnych celów, takich jak włączenie społeczne i różnorodność, z możliwymi błędnymi interpretacjami. W tej sytuacji pojawia się kilka kluczowych wyzwań, w tym możliwość wzmocnienia szkodliwych stereotypów, jeśli sztuczna inteligencja niedokładnie przedstawi określone populacje w historycznie dominujących rolach. Może również podważyć zaufanie, jeśli użytkownicy wyczują, że sztuczna inteligencja zastępuje prawdy ze świata rzeczywistego na rzecz programu społecznego, który jest niezbędny do powszechnego przyjęcia i korzystnego wykorzystania systemów sztucznej inteligencji.
Wreszcie te nieścisłości często odzwierciedlają stronniczość danych, na których uczono system sztucznej inteligencji, co uwypukla powszechny problem w systemach sztucznej inteligencji, którym należy stale się zajmować, aby ograniczyć ryzyko szkodliwych fałszywych oświadczeń.
Droga naprzód
Doświadczenie Google z Gemini AI stwarza okazję do nauki. Oto, co uwypukliło to wydarzenie:
- Przezroczystość: Firmy muszą zapewnić większą przejrzystość swoich danych szkoleniowych i względów etycznych w swoich algorytmach.
- Ulepszone zbiory danych: Rozszerzanie zbiorów danych, aby były bardziej reprezentatywne dla świata rzeczywistego, może pomóc w ograniczeniu błędów w algorytmach.
- Nadzór ludzki: Systemy sztucznej inteligencji nigdy nie powinny zastępować ludzkiego osądu, zwłaszcza w dziedzinach wrażliwych na stronniczość.
Debata w ramach Gemini AI wake podkreśla, że nawet zaawansowane narzędzia AI radzą sobie ze złożonością ludzkich wartości. Technologia musi być narzędziem postępu, ale tylko przy ciągłych rygorystycznych wysiłkach na rzecz wyeliminowania uprzedzeń w jej dziełach.
Autor wyróżnionego obrazu: Bliźnięta
Source: Google wstrzymuje Gemini AI ze względu na obawy dotyczące dokładności obrazu