Facebook inwestuje znaczne wysiłki w egzekwowanie standardów społeczności dla uczestników na różnych platformach społecznościowych. W tym sensie, poza personelem ludzkim odpowiedzialnym za zapewnienie zgodności, Facebook opiera się na technologiach sztucznej inteligencji, a dziś zaoferował podgląd postępów poczynionych w ostatnim czasie w tej dziedzinie.
W związku z tym odniósł się do obecnie używanych systemów, takich jak Reinforcement Integrity Optimizer (RIO), wdrożony pod koniec zeszłego roku, który, jak twierdzi, pomógł znacznie ograniczyć mowę nienawiści i inne rodzaje niechcianych postów na jego platformach społecznościowych w pierwsza połowa roku.
Mike Schroepfer, CTO Facebooka, powiedział: „Sztuczna inteligencja to niezwykle szybko zmieniająca się dziedzina, a wiele z najważniejszych części naszych obecnych systemów sztucznej inteligencji opiera się na technikach takich jak samokontrola, która jeszcze kilka lat temu wydawała się odległą przyszłością”.
W związku z tym wyjaśnia, że zamiast trenować system oparty na sztucznej inteligencji w oparciu o stały zbiór danych, w RIO zdecydowali się na model, w którym system uczy się bezpośrednio o milionach aktualnych treści, dostosowując się z czasem, aby lepiej wykonywać swoją pracę .
Schroepfer twierdzi, że podejście zastosowane w RIO jest „niesamowicie cenne” pod względem zgodności ze standardami UE, dodając, że:
Ponieważ natura problemu zawsze ewoluuje wraz z bieżącymi wydarzeniami, kiedy pojawiają się nowe problemy, nasze systemy muszą być w stanie szybko się dostosować. Uczenie się przez wzmacnianie to potężne podejście, które pomaga AI w sprostaniu nowym wyzwaniom, gdy brakuje dobrych danych treningowych.
W związku z tym oczekują, że RIO będzie z czasem nadal pomagać w dalszym ograniczaniu mowy nienawiści na platformie.
Ale oprócz RIO, Facebook zastępują również spersonalizowane systemy o jednym przeznaczeniu bardziej ogólnymi, widząc „imponujące ulepszenia” dzięki wykorzystaniu multimodalnych modeli sztucznej inteligencji, które mogą pracować z wieloma językami i wieloma rodzajami treści.
Schroepfer odniósł się również do modeli uczenia się „zero strzałów” i „kilka strzałów”, które pozwalają sztucznej inteligencji identyfikować treści naruszające prawa, nawet jeśli prawie nigdy nie mieli takiego przykładu.
Powiedział: „Nauka zero-shot i few-shot to jedna z wielu najnowocześniejszych dziedzin sztucznej inteligencji, w których dokonujemy znacznych inwestycji badawczych i spodziewamy się, że wyniki pojawią się w przyszłym roku”.