Google ujawni obrazy stworzone lub edytowane przez sztuczną inteligencję w wynikach wyszukiwania. Gigant technologiczny planuje zapewnić większą przejrzystość, dodając etykiety do obrazów stworzonych lub zmodyfikowanych przez AI.
Zmiana nastąpiła po tym, jak Google nawiązało współpracę z dużymi firmami w ramach Coalition for Content Provenance and Authenticity (C2PA), której celem jest zwalczanie rozprzestrzeniania się wprowadzających w błąd informacji online. Przyjrzyjmy się szczegółom planu Google dotyczącego oznaczania treści generowanych przez AI i kwestiom z tym związanym.
Czy pościg Google za sztuczną inteligencją jest tylko przedstawieniem pobocznym?
W nadchodzących miesiącach Google zacznie oznaczać tagami treści generowane i edytowane przez sztuczną inteligencję obrazy w wynikach wyszukiwania. Dokona się tego przy użyciu metadanych z Poświadczenia treści standard, który zawiera informacje takie jak kiedy, gdzie i jak obraz został utworzony. Użytkownicy będą mogli zobaczyć ten tag za pośrednictwem funkcji Google „O tym obrazie”, do której można uzyskać dostęp, klikając trzy kropki nad obrazem w wynikach wyszukiwania.
Pomysłem stojącym za tym ruchem jest umożliwienie użytkownikom śledzenia źródła obrazów i ułatwienie znajdź treści generowane przez sztuczną inteligencję. Ruch ten nastąpił po tym, jak Google dołączyło do innych firm technologicznych, takich jak Amazon, Adobe i Microsoft, w opracowaniu najnowszych wytycznych Content Credentials. Razem te firmy mają nadzieję zwiększyć przejrzystość i ograniczyć rozprzestrzenianie się fałszywych lub wprowadzających w błąd obrazów.
Ale chociaż inicjatywa Google jest krokiem we właściwym kierunku, warto zauważyć, że etykieta nie będzie od razu oczywista. Użytkownicy będą musieli aktywnie szukać informacji, klikając sekcję „O tym obrazie”, co może sprawić, że funkcja będzie mniej skuteczna, niż niektórzy mogliby się spodziewać.
W jaki sposób użytkownicy będą uzyskiwać dostęp do informacji o sztucznej inteligencji?
Nową funkcję można znaleźć w Google Lens i funkcji „Circle to Search” w Androidzie i teraz będzie ona wskazywać, czy obraz został wygenerowany lub zmieniony przy użyciu sztucznej inteligencji. Brak bezpośredniego wyświetlania etykiety może skutkować brakiem świadomości istnienia tego narzędzia wśród wielu użytkowników. Ponieważ są w to zaangażowane dodatkowe kroki, niektóre osoby mogą nigdy nie być w stanie potwierdzić, czy obraz został wygenerowany przez AI, chyba że są już zaznajomione z tą funkcjonalnością. Nawet jeśli osoby są świadome, proces ten może być nadal trudny, szczególnie jeśli przewidują, że obrazy wygenerowane przez AI będą wyraźniej oznaczone.
Pomimo tego ograniczenia partnerstwo Google z C2PA może okazać się cenne, ponieważ standard Content Credentials oferuje szerszą strukturę śledzenia pochodzenia treści cyfrowych. Niemniej jednak standard ten nie został przyjęty przez wszystkich programistów AI. Niektóre organizacje, takie jak Laboratoria Czarnego Lasuzdecydowali się nie uwzględniać tego parametru, co może potencjalnie komplikować działania mające na celu śledzenie źródła obrazów generowanych przez konkretne modele.
Obawy dotyczące skuteczności: Czy Google robi wystarczająco dużo?
Istnieje również większy problem: obrazy generowane przez sztuczną inteligencję stają się coraz trudniejsze do wykrycia. Uniwersytet Waterloo badanie wykazało, że 39% osób nie potrafi odróżnić obrazów generowanych przez AI od prawdziwych. Jeśli ten trend się utrzyma, system etykietowania Google może nie wystarczyć, aby pomóc użytkownikom pewnie identyfikować treści generowane przez AI.
Co więcej, inne firmy technologiczne nie dają dobrego przykładu. Na przykład Meta niedawno przeniosła informacje o tagowaniu na mniej widoczną pozycję w postach. Nasuwa się pytanie, czy giganci technologiczni są naprawdę zaangażowani w uczynienie treści generowanych przez AI bardziej przejrzystymi, czy też podejmują jedynie minimalne kroki.
Niewiele aparatów, takich jak Leica M-11P I Nikon Z9posiada wbudowany Poświadczenia treściOznacza to, że jeśli fotografowie i deweloperzy nie zdecydują się na korzystanie z tych narzędzi, system nie będzie tak skuteczny, jak mógłby być. Przejrzystość treści generowanych przez AI w dużym stopniu opiera się na współpracy międzybranżowej, a jak dotąd nie wszyscy wydają się być w równym stopniu zaangażowani.
Jednocześnie wzrost liczby obrazów generowanych przez AI wywołał nowe obawy dotyczące dezinformacji. Od deepfake’ów po zdjęcia nagości generowane przez AI, potencjał szkód jest oczywisty. Chociaż nowy system etykietowania Google’a nie rozwiąże wszystkich tych problemów, jest to mały krok w kierunku ograniczenia rozprzestrzeniania się wprowadzających w błąd treści online.
Źródła obrazów: Furkan Demirkaja / Ideogram AI
Source: Czy tagowanie obrazów sztuczną inteligencją Google będzie łatwe do wykrycia?