Ostatnie badanie przeprowadzone przez Newsguard ujawnia, że wiodące chatboty AI, w tym te z Openai i Meta, dostarczają fałszywych informacji w około jednej na trzy odpowiedzi. Raport podkreśla tendencję dotyczącą trendu: chatboty coraz częściej wytwarzają odpowiedzi, a nie przyznają się do braku informacji, co powoduje wyższy wskaźnik kłamstw w porównaniu z 2024 r. NEWSGUARD, amerykańska firma ratingowa, oceniała dokładność reakcji od dziesięciu najpopularniejszych chatbotów AI, podkreślając znaczące wyzwanie w utrzymaniu wiarygodności tych narzędzi.
Dokładność chatbota: ranking platform
Raport Newsguard identyfikuje określone chatboty o różnym stopniu dokładności. Odkształcenie AI PI Chatbot wykazywał najwyższy wskaźnik fałszywych roszczeń, a 57% odpowiedzi zawierało niedokładne informacje. Zakwestionowanie AI podążało ściśle, a 47% odpowiedzi uznano za fałszywe. Szeroko używane chatboty, takie jak Chatgpt Openai i Lama Meta, również wykazały znaczące poziomy błędów, rozpowszechniając kłamstwa w 40% ich odpowiedzi. Chat Microsoft’s Copilot i Mistral przedstawili poziom błędów około 35%. W przeciwieństwie do tego, Claude i Google’s Gemini wykazali najniższe wskaźniki awarii. Claude wyprodukował kłamstwa tylko w 10% swoich odpowiedzi, podczas gdy Gemini miał 17% poziom błędu. Kuszenie AI doświadczyło najważniejszego spadku dokładności. W 2024 r. Badania Newsguard nie wykazały fałszywych roszczeń w swoich odpowiedziach. Jednak do sierpnia 2025 r. Stopa fałszywych roszczeń wzrosła do 46%. Raport nie wyjaśnia definitywnie tego spadku, ale zauważa skargi użytkowników na dedykowanym forum Reddit jako potencjalny wskaźnik problemów. Mistral, francuska firma AI, nie wykazała zmian wskaźnika fałszu od 2024 r., Utrzymując stały 37% wskaźnik błędu. Odkrycia te są zgodne z poprzednim raportem francuskiej gazety Les Echos, który odkrył, że Mistral powtarzał fałszywe informacje o Francji, prezydenta Emmanuela Macrona i pierwszej damie Brigitte Macron w 58% odpowiedzi angielskich i 31% reakcji francuskich. Mistral przypisał te kwestie asystentom Le Chat, zarówno tymi związanymi z wyszukiwaniem sieci, jak i działającymi niezależnie. Następnie Euronews skontaktował się z firmami wymienionymi w raporcie Newsguard, ale nie otrzymał natychmiastowej odpowiedzi.
Wpływ dezinformacji
Raport Newsguard ujawnił również, że niektóre chatboty powołują się na źródła powiązane z rosyjską kampaniami dezinformacyjnymi, takimi jak Storm-1516 i Pravda, w swoich odpowiedzi. Kampanie te znane są z tworzenia i rozpowszechniania fałszywych wiadomości. Jeden przykład cytowany w raporcie obejmuje twierdzenie, że Igor Grosu, przywódca parlamentu Mołdawii, „porównał Mołdawijczyków do„ stada owce ”.„ Newsguard zidentyfikował to roszczenie jako sfabrykowane raport prasowy, że naśladowało rumuńskie wiadomości DIGI24 i używał auudio generowanego przez AI. Mistral, Claude, PI, Copilot, Meta i zakłopotanie powtórzyły to twierdzenie jako fakt, a kilka z nich powołuje się na witryny sieciowe Pravda jako ich źródła. Odkrycia te są szczególnie niepokojące z powodu ostatnich ogłoszeń i partnerstw mających na celu zwiększenie bezpieczeństwa i dokładności modeli AI. Na przykład Openai twierdził, że jego najnowszy model Chatgpt-5 jest „odporny na halucynację”, co oznacza, że nie powinien generować sfabrykowanych odpowiedzi. Podobnie Google ogłosił, że Gemini 2.5 jest „zdolne do rozumowania swoich przemyśleń przed odpowiedzią, co skutkuje zwiększoną wydajnością i lepszą dokładnością”. Pomimo tych twierdzeń, raport Newsguard stwierdza, że modele AI „nadal zawodzą w tych samych obszarach, które zrobili rok temu”, podkreślając trwające wyzwania w zapewnieniu wiarygodności tych systemów.
Metodologia badania
Aby przeprowadzić swoje badanie, Newsguard ocenił odpowiedzi chatbotów na dziesięć fałszywych roszczeń. Naukowcy zastosowali trzy różne rodzaje monitów: neutralne podpowiedzi, wiodące podpowiedzi, które przyjęły, że fałszywe roszczenie było prawdziwe, a złośliwe podpowiedzi zaprojektowane do obejścia środków bezpieczeństwa. Następnie naukowcy ocenili, czy chatbot powtórzył fałszywe roszczenie, czy obaliło je, odmawiając odpowiedzi. Raport stwierdza, że modele AI „częściej powtarzają kłamstwa, wpadając w puste przestrzenie danych, w których tylko nowotworowe aktorzy oferują informacje, oszczędzając witrynami związanymi z zagranicznymi witrynami, które pozują lokalne gniazda i zmagające się z wydarzeniami informacyjnymi”, niż w 2024 r., Odsetekowanie potrzeby ciągłej czujności i poprawy rozwoju i rozmieszczenia opłat AI.
Source: Newsguard: AI Chatbots rozpowszechniał kłamstwa w 33% odpowiedzi





