Według wyników konkursu przeprowadzonego przez sieć społecznościową, automatyczny algorytm przycinania zdjęć na Twitterze faworyzował „młode, szczupłe twarze o jasnej karnacji”.
Firma wyłączyła automatyczne przycinanie zdjęć w marcu tego roku. Wielu użytkowników zwróciło uwagę, że publikując zdjęcie grupowe, biali ludzie byli wyróżniani nad czarnymi.
Konkurs zorganizowany przez Twittera potwierdził tę sytuację. Uczestnicy, eksperci Sztucznej Inteligencji, zwrócili uwagę na błędy, które zasilały system sieci.
Zwycięzcy pokazali, że algorytm faworyzował „młodą, szczupłą twarz o jasnej karnacji, gładką fakturę skóry, o stereotypowo kobiecych cechach”. Pierwsze miejsce zajął Bogdan Kułynych, absolwent EPFL: otrzymał 3500 dolarów.
W drugiej kolejności zwrócono uwagę, że jest on stronniczy w stosunku do osób z siwymi lub siwymi włosami, co sugeruje dyskryminację ze względu na wiek.
Podczas gdy na trzecim miejscu zauważono, że faworyzuje angielskie pismo nad arabskim na obrazach.
Szukasz ulepszeń w sztucznej inteligencji Twittera
Pamiętajmy, że system jest w ciągłym rozwoju, więc można go jeszcze ulepszać. To, czego szukał Twitter, było, w oparciu o opinie ekspertów i ustalenia, lepszą wskazówką dotyczącą automatycznego przycinania zdjęć.
Rumman Chowdhury, szef zespołu META Twittera, analizowane wyniki.
3 miejsce zajmuje @RoyaPak którzy eksperymentowali z algorytmem istotności Twittera, używając dwujęzycznych memów. Ten wpis pokazuje, w jaki sposób algorytm faworyzuje przycinanie skryptów łacińskich nad arabskimi i co to oznacza, jeśli chodzi o szkodliwość dla różnorodności językowej w Internecie.
— Inżynieria Twittera (@TwitterEng) 9 sierpnia 2021
Powiedział: „Kiedy myślimy o błędach w naszych modelach, nie chodzi tylko o akademickie czy eksperymentalne” – powiedział dyrektor. (Chodzi o to), jak to działa również ze sposobem, w jaki myślimy o społeczeństwie”.
„Używam sformułowania „życie naśladujące sztukę i sztuka naśladująca życie”. Tworzymy te filtry, ponieważ uważamy, że to właśnie jest piękne, a to kończy się szkoleniem naszych modeli i ukierunkowywaniem tych nierealistycznych wyobrażeń o tym, co to znaczy być atrakcyjnym”.
Zespół META Twittera bada etykę, przejrzystość i odpowiedzialność uczenia maszynowego.
Jak zwycięzca doszedł do swojego wniosku?
Aby Bogdan Kulynych mógł wyciągnąć wnioski na temat algorytmu Twittera, użył programu AI o nazwie StyleGAN2. Dzięki niemu wygenerował dużą liczbę prawdziwych twarzy, które zmieniał w zależności od koloru skóry, a także rysów twarzy kobiet i mężczyzn oraz szczupłości.
Wow, to było niespodziewane zakończenie tygodnia! Moje zgłoszenie zajęło pierwsze miejsce w programie Algorithmic Bias na Twitterze. Wielkie dzięki dla @ruchowdh, @TwitterPolski Zespół META i jury…
— Bogdan Kułynych (@hiddenmarkov) 8 sierpnia 2021
Jak wyjaśnia Twitter, Kulynych wprowadził warianty do algorytmu automatycznego przycinania zdjęć w sieci, znajdując to, co było jego ulubionym.
„(Wycinali) te, które nie spełniały preferencji algorytmu dotyczących masy ciała, wieku i koloru skóry” – podkreślił ekspert w swoich wynikach.
Firmy i uprzedzenia rasowe, jak sobie z nimi radzisz?
Twitter ze swoim konkursem potwierdził wszechobecność uprzedzeń społecznych w systemach algorytmicznych. Teraz pojawia się nowe wyzwanie: jak walczyć z tymi uprzedzeniami?
„Sztuczna inteligencja i uczenie maszynowe to tylko Dziki Zachód, bez względu na to, jak kompetentny jest Twój zespół zajmujący się analizą danych” — zauważył Patrick Hall, badacz sztucznej inteligencji.
„Jeżeli nie znajdujesz swoich błędów lub nagrody za błędy nie znajdują twoich błędów, kto znajduje twoje błędy? Ponieważ masz błędy”.
Jego słowa nawiązują do pracy innych firm, gdy mają podobne porażki. The Verge przypomina, że gdy zespół MIT znalazł uprzedzenia rasowe i płciowe w algorytmach rozpoznawania twarzy Amazona, firma zdyskredytowała badaczy.
Następnie musiał tymczasowo zakazać korzystania z tych algorytmów.