Twitch, popularna platforma streamingowa na żywo, niedawno wprowadziła funkcję opartą na sztucznej inteligencji, mającą na celu ograniczenie szkodliwego języka w pokojach czatu. Zapowiedziany przez zespół wsparcia Twitcha na X (dawniej Twitter), ten nowy eksperyment ma na celu uczynienie interakcji online bardziej pozytywnymi, ale pozostaje pytanie, jak bardzo się powiedzie.
Platforma wprowadza ostrzeżenie oparte na uczeniu maszynowym, które zachęci użytkowników do zastanowienia się dwa razy przed wysłaniem wiadomości, które mogą być uznane za obraźliwe lub niegrzeczne. Były do tego boty moderatorów, ale były niewystarczające, więc Twitch chce teraz wprowadzić zintegrowany system.
Sztuczna inteligencja przegrywa z przekleństwami na czacie Twitcha, ale boty wciąż mogą swobodnie się poruszać
Podstawowym założeniem tej nowej funkcji jest zapewnienie użytkownikom chwili wytchnienia przed wysłaniem wiadomości. potencjalnie szkodliwe wiadomości. Gdy AI wykryje język, który można uznać za obraźliwy, pojawi się monit z pytaniem: „Czy na pewno chcesz to wysłać?Celem monitu jest zapobieganie szkodliwej komunikacji poprzez danie użytkownikom szansy na ponowne przemyślenie słów przed naciśnięciem przycisku „Wyślij”.
Ale prawdziwy problem nie chodzi tu tyle o to, czy ludzie mówią złe słowa, ale o to, czy konta botów wysyłają spam do nadawców czaty lub zyskiwanie nieuczciwa publiczność. Innymi słowy, konto bota już przejdzie to ostrzeżenie i znowu zje to słowo, a konto został już otwarty i zakazany. Trochę ciekawie jest podejmować działania przeciwko sytuacjom spowodowanym przez problem zamiast rozwiązywać problem źródłowy.
Ludzie, użyliśmy przykładu wiadomości, ponieważ – co nie powinno dziwić – nie chcieliśmy, aby na Twitterze pojawiały się naprawdę wulgarne słowa.
Przestańcie być idiotami.
— Wsparcie Twitcha (@TwitchSupport) 12 sierpnia 2024 r.
Koncepcja jest prosta, ale pozostaje pytanie, jak skuteczna będzie. Celem Twitcha jest ograniczenie nękania, powszechnego problemu w wielu społecznościach internetowych. Jednak pojawia się pytanie: czy użytkownicy, którzy chcą być niegrzeczni, zignorują ostrzeżenie i będą kontynuować swoje wiadomości? Albo jak dobrze ostrzeżenie zadziała w przypadku kont botów. Eksperyment Twitcha pomoże ustalić, czy to podejście oparte na sztucznej inteligencji może faktycznie ograniczyć negatywne zachowania, czy też jest to po prostu kolejny filtr, przez który użytkownicy przeskakują bez większego zastanowienia.
Wyzwania i przyszłość moderacji AI
Jednym z najbardziej intrygujących aspektów tego eksperymentu jest jak sztuczna inteligencja będzie interpretować język. Systemy AI, zwłaszcza te oparte na uczeniu maszynowym, opierają się na wzorcach i danych, aby podejmować decyzje. Sukces tego eksperymentu zależy od zdolności AI do dokładnego wykrywania i oznaczania obraźliwego języka bez nieumyślnego cenzurowania nieszkodliwych komentarzy. Ta równowaga jest kluczowa, ponieważ zbyt wrażliwa moderacja może utrudniać swobodny przepływ konwersacji, podczas gdy podejście zbyt pobłażliwe może nie powstrzymać samego zachowania, które ma na celu wyeliminować.
Czy sztuczna inteligencja będzie w stanie wykrywać rzeczy nielegalne, takie jak niektóre strony bukmacherskiena przykład bez wulgaryzmów lub złych komunikatów?
Zespół wsparcia Twitcha zasugerował, że w nadchodzących tygodniach zostaną udostępnione kolejne aktualizacje dotyczące tej funkcji. W miarę postępu eksperymentu zarówno Twitch, jak i jego użytkownicy będą uważnie obserwować, czy ta inicjatywa oparta na sztucznej inteligencji może stworzyć bardziej przyjazne środowisko. Czy jest to krok w kierunku czystszych czatów, czy środek tymczasowy, pozostaje do sprawdzenia. W międzyczasie chciałbym, żeby uporządkowali konta botów.
Ten eksperyment jest przypomnieniem, że wszystko, co jest udostępniane na Twitchu, jest rejestrowane i monitorowane, nawet prywatne wiadomości. Więc będzie to dotyczyć zarówno dobrych, jak i złych słów. Czy ta sztuczna inteligencja zostanie opracowana przy użyciu tych danych? Albo jak to powiedzieć, czy użytkownicy uzyskają na to zgodę?
Źródło wyróżnionego obrazu: Projekt RDNE Stock / Pexels
Source: Twitch będzie używać sztucznej inteligencji przeciwko przeklinaniu