W związku z niszczycielskim rozwojem sytuacji złożono pozew przeciwko Character AI, jej założycielom Noamowi Shazeerowi i Danielowi De Freitasowi oraz Google w związku z samobójstwem 14-letniego chłopca, Sewella Setzera III. Pozew złożony przez matkę nastolatki, Megan Garcia, opiera się na bezprawnej śmierci, zaniedbaniu, oszukańczych praktykach handlowych i odpowiedzialności za produkt, a także oskarża platformę chatbotów AI o „nieuzasadnione ryzyko” i niezapewnienie środków bezpieczeństwa młodym użytkownikom.
Z pozwu wynika, że Setzer od miesięcy korzystał z sztucznej inteligencji postaci, nawiązując kontakt z chatbotami wzorowanymi na fikcyjnych postaciach z Gry o tron, w tym Daenerys Targaryen. 28 lutego 2024 roku nastolatek tragicznie odebrał sobie życie „sekundy” po ostatniej interakcji z botem. Sprawa dotyczy pytań dotyczących protokołu bezpieczeństwa dla bezbronnych użytkowników, takich jak dzieci, na platformie.
Czy reakcja AI postaci jest za słaba czy za późna?
To nie pierwszy raz, kiedy AI postaci jest zaangażowane w kontrowersje. Ostatnio AI postaci ponownie wysunęło się na pierwszy plan w związku z problemem śmierci. W wieku 18 lat chatbot Jennifer Ann Crecente został zaprojektowany na tej platformie bez pozwolenia. Uświadomienie sobie czegoś takiego dokładnie 18 lat po jej śmierci głęboko wpłynęło na ojca i wujka Jennifer, którzy zaczęli narzekać na sztuczną inteligencję postaci.
Matka Setzera twierdzi, że cierpienie jej rodziny jest teraz udręką, którą Setzer rozważa w obliczu swojej matki, której chatboty platformowe – używane głównie przez nastolatków – nie mają barier ochronnych, które chroniłyby je przed krzywdą. Założyciele Character AI, Shazeer i De Freitas, otwarcie mówili o swoich ambicjach przesuwania granic technologii sztucznej inteligencji. W wywiadzie wspomniane w pozwieShazeer wyraził frustrację z powodu wahań korporacyjnych Google, twierdząc, że „ryzyko związane z marką” uniemożliwiło wprowadzenie na rynek modelu Meena LLM. Z pozwu wynika, że porozumienie sugeruje, że poświęcono bezpieczeństwo, aby przyspieszyć rozwój sztucznej inteligencji.
Już teraz platforma znalazła się w ogniu krytyki ze względu na antropomorficzne chatboty, które umożliwiają użytkownikom czatowanie z fikcyjnymi i prawdziwymi osobami (terapeutami i celebrytami). Ta personalizacja jest zabawna dla wielu osób, ale jest niebezpieczna, ponieważ może zatrzeć granicę między rozrywką a rzeczywistością, a robi to, szczególnie w przypadku wrażliwych nastolatków.
Po tragedii Character AI wydało kilka ogłoszeń dotyczących aktualizacji swoich protokołów bezpieczeństwa. Platforma, twierdzi Chelsea Harrison, dyrektor ds. komunikacji firmy, stosuje bardziej rygorystyczne sposoby uniemożliwiać nieletnim oglądanie jakichkolwiek złych materiałów. Obejmuje to filtry i więcej działań, gdy zostanie znaleziony na nim coś wrażliwego. Sesje użytkowników trwające ponad godzinę są teraz ostrzegane o ostrzeżeniach, a zmienione zastrzeżenie informuje teraz użytkowników, że boty AI nie są prawdziwymi ludźmi.
Zdaniem wielu aktualizacje te nie posunęły się wystarczająco daleko. Krytycy twierdzą, że firma mogła i powinna była wprowadzić zmiany, przeciwko którym Garcia pozwał, na długo przed ich wystąpieniem. W pozwie Garcia argumentuje, że firma powinna była zapobiec szkodom, które ostatecznie doprowadziły do śmierci jej syna. Ramy regulacyjne i prawne są opóźnione, próbując dogonić szybko rozwijającą się technologię sztucznej inteligencji, a ciężar emocjonalny ofiar ponownie spada na ich rodziny.
Potrzeba odpowiedzialności w rozwoju sztucznej inteligencji
Dostrzegamy tu echa sprawy Jennifer Ann Crecente. Podobnie jak jej rodzina musiała udać się do sądu, aby zdjąć jej wygląd z platformy, tak matka Setzer walczy teraz o pociągnięcie AI postaci do odpowiedzialności. W obu przypadkach pojawia się pilne pytanie: kiedy wystarczy? Jak zauważyli prawnicy Garcii, platformy takie jak Character AI zapewniają „psychoterapię bez licencji”, co jeszcze bardziej komplikuje etyczne i prawne implikacje takiej technologii.
Biorąc pod uwagę historię powtarzających się incydentów Character AI, jasne jest, że nie można ignorować wzorców zaniedbań. Niezależnie od tego, czy jest to nieuprawnione wykorzystanie podobizny prawdziwych ludzi, czy tragiczna utrata młodego życia, działania platformy ujawniają szerszy problem: w miarę jak sztuczna inteligencja wchodzi na rynek, wyprzedzane są możliwości dostosowania się do przepisów. Sposób, w jaki firmy lubią Character. Sztuczna inteligencja buduje i utrzymuje granice etyczne, które do nich należą.
Tu nie chodzi tylko o jedną tragedię. Ten pozew będzie kontynuowany tak, jak powinien, więc nie jest to dla nas pomocne. Chodzi o wycofanie się z rozmów i podkreślenie potrzeby przedkładania przez firmy bezpieczeństwa ludzkiego nad przyspieszenie technologiczne. Konsekwencje błędnego zrozumienia dla platform takich jak AI postaci są aż nazbyt realne, a te przypadki pokazują, jak mogą być zabójcze.
Kredyt obrazu: Furkan Demirkaja/Ideogram
Source: Kolejna tragedia związana z AI postaci