Chociaż można uzgodnić definicję słuszności jako słowa, w konkretnym ujęciu jej konkretne zastosowanie może być przedmiotem dalszej analizy.
Tak jak zdefiniowanie tego, co jest sprawiedliwe, a co nie, może być prawdziwym dylematem dla ludzi, tak samo jest wyzwaniem dla sztucznej inteligencji, któremu stara się pomóc nowa inicjatywa na Uniwersytecie Stanowym Michigan.
Klasy uczciwości dla algorytmów AI
Biorąc pod uwagę, że systemy sztucznej inteligencji coraz częściej pojawiają się w codziennej działalności i usługach, konieczne jest zapewnienie dostatecznej bezstronności platformom zajmującym się decydowaniem o tym, kto otrzyma odpowiednią opiekę medyczną, komu przysługuje kredyt bankowy lub komu Praca.
Dzięki funduszom od Amazona i National Science Foundation, Pang-Ning Tan, badacz i profesor na Wydziale Informatyki i Inżynierii wspomnianego uniwersytetu w USA, spędził ostatni rok na szkoleniu algorytmów sztucznej inteligencji, aby pomóc im rozróżnić sprawiedliwość od niesprawiedliwość ich działań.
„Staramy się projektować systemy sztucznej inteligencji, które służą nie tylko informatyce, ale także przynoszą wartość i korzyści społeczeństwu. Zacząłem więc zastanawiać się, jakie obszary są obecnie wyzwaniem dla społeczeństwa ”- powiedział naukowiec o uzasadnieniu swojej inicjatywy.
Projekt ten rodzi potrzebę rozwijania inicjatyw, które będą miały bezpośredni wpływ na jego użytkowników. Rozwijając ten sam punkt, Tan skomentował również, że „równość to bardzo duży problem, zwłaszcza że stajemy się bardziej zależni od sztucznej inteligencji w zakresie codziennych potrzeb, takich jak opieka medyczna, ale także rzeczy, które wydają się przyziemne, takie jak filtrowanie spamu lub umieszczanie artykułów w sekcji wiadomości. . ”
Nawet jako systemy zautomatyzowane algorytmy sztucznej inteligencji mogą przenosić pewne odziedziczone uprzedzenia wynikające z danych wykorzystywanych podczas ich szkolenia, a nawet być przekazywane bezpośrednio przez ich twórców. Na przykład, według badania przeprowadzonego przez zespół badawczy Tana, istnieją przypadki systemów sztucznej inteligencji, które dyskryminują rasę podczas zarządzania opieką medyczną i segregacją seksualną kobiet w systemach aplikacji o pracę.
W tej rzeczywistości Abdol-Hossein Esfahanian, członek zespołu badawczego Tana, skomentował, że „algorytmy są tworzone przez ludzi, a ludzie zwykle mają uprzedzenia, więc te uprzedzenia są filtrowane… chcemy wszędzie mieć sprawiedliwość i chcemy mieć lepsze zrozumienie, jak to ocenić.
Przy wsparciu teorii nauk społecznych Tan i jego zespół starają się zbliżyć do możliwie najbardziej uniwersalnego pojęcia sprawiedliwości. Aby sprostać temu celowi, zasady uczciwości przekazane algorytmowi nie będą pochodzić z jednego punktu widzenia, co zmusi go do podjęcia decyzji między rywalizującymi lub sprzecznymi stanowiskami.
„Staramy się, aby sztuczna inteligencja była świadoma sprawiedliwości, a żeby to zrobić, musisz jej powiedzieć, co jest sprawiedliwe. Ale jak zaprojektować miarę sprawiedliwości, która byłaby do przyjęcia dla wszystkich? ” zauważył Tan, dodając, że „przyglądamy się, jak decyzja wpływa nie tylko na jednostki, ale także na ich społeczności i kręgi społeczne”.
Praca jest ambitna i mimo postępów dopiero się zaczyna. „To bardzo ciągłe badania. Jest wiele problemów i wyzwań – jak zdefiniujesz sprawiedliwość, jak możesz pomóc ludziom zaufać tym systemom, z których korzystamy na co dzień ”- zastanawiał się Tan, dodając, że„ naszym zadaniem jako badaczy jest znajdowanie rozwiązań tych problemów ”.
Pełny raport z tych badań jest dostępny pod adresem Witryna Michigan State University.