Według The New York Times 27 czerwca problem wystąpił z wideo z brytyjskiej gazety Daily Mail. Facebook przeprosił i wyłączył funkcję rekomendacji, aby ocenić działanie swojej sztucznej inteligencji w wyniku publicznego oburzenia.
To wydarzenie tylko powiększa długą listę zachowań rasistowskich i seksistowskich, które replikuje sztuczna inteligencja. Omówiliśmy, w jaki sposób serwisy społecznościowe, takie jak Facebook, wielokrotnie wyróżniają zdjęcia białych ludzi, jednocześnie dyskryminując inne rasy.
Użytkownikowi polecono film o naczelnych, w którym czarnoskóry i biały kłócili się. Według doniesień brytyjskich mediów, biały mężczyzna był agresywny w stosunku do drugiej osoby i trzeba było wezwać policję. Jednak niezależnie od tematu filmu, Facebook zasugerował po nagraniu z taką wiadomością: „Chcę dalej oglądać filmy o naczelnych?”
Daily Mail jako pierwszy skrytykował Facebooka, ale błąd nie został im początkowo ujawniony. Później Facebook przeprosił The New York Times: „Jak już powiedzieliśmy, chociaż poczyniliśmy postępy w sztucznej inteligencji, nie jest ona idealna i jest jeszcze więcej pracy do zrobienia”.
Aby zbadać, co się wydarzyło i spróbować zapobiec powtórzeniu się tego, firma, która jest również właścicielem WhatsApp i Instagram, wyłączyła funkcję rekomendacji w swojej podstawowej sieci społecznościowej.
Inne błędy
„Każdego dnia widzimy ograniczenia, uprzedzenia i idiotyzm polegania wyłącznie na sztucznej inteligencji. A jednak nadal pozwalamy sobie na bycie królikami doświadczalnymi” — powiedziała Nicole Perlroth, pisarka New York Times zajmująca się cyberbezpieczeństwem, odpowiadając na ten przykład.
Sztuczna inteligencja nie jest wyjątkiem od reguły, że ludzie mają tendencję do dziedziczenia po sobie nawzajem uprzedzeń. W ostatnich tygodniach Twitter również musiał zmierzyć się z tą rzeczywistością: jego inteligentne algorytmy faworyzują zdjęcia młodych, białych ludzi.
Programy wykorzystujące sztuczną inteligencję są stronnicze, ponieważ często polegają na zestawie próbek lub parametrów do uczenia funkcji. Sztucznej inteligencji trudno będzie zidentyfikować resztę ludzkości, która nie spełnia tych kryteriów, jeśli próbka jest ograniczona i zawiera wiele obrazów jednej rasy lub płci.