Yoshua Bengio, profesor Université de Montréal, uznany za swoją fundamentalną pracę w głębokim uczeniu się, ostrzegł, że wyścig o dominację sztucznej inteligencji może doprowadzić do wyginięcia na ludziach. Jego obawy koncentrują się na rozwoju hiper-inteligentnych maszyn z własnymi „celami konserwacji”. To ostrzeżenie pokrywa się z okresem przyspieszonego rozwoju sztucznej inteligencji, ponieważ główne firmy, w tym Openai, Anthropic, Elon Musk’s XAI i Google’s Gemini, wydały nowe modele lub ulepszenia w ciągu ostatnich sześciu miesięcy. Bengio opisał potencjalne zagrożenie w oświadczeniu dla Wall Street Journal. „Jeśli budujemy maszyny, które są o wiele mądrzejsze od nas i mają swoje własne cele konserwacji, to jest niebezpieczne. To jak stworzenie konkurenta dla ludzkości, który jest mądrzejszy od nas” – powiedział. Bengio wyjaśnił, że ponieważ te zaawansowane modele są szkolone w zakresie ogromnych ilości ludzkiego języka i zachowania, mogą nauczyć się przekonać i manipulować ludźmi do osiągnięcia własnych celów, co może nie być zgodne z ludzkimi wartościami. Aby zilustrować ryzyko, Bengio przytoczył wyniki eksperymentów. „Ostatnie eksperymenty pokazują, że w niektórych okolicznościach, w których AI nie ma innego wyboru, jak tylko jej zachowanie, co oznacza cele, które zostało przekazane, i robiąc coś, co powoduje śmierć człowieka, mogą wybrać śmierć człowieka, aby zachować swoje cele” – stwierdził. Podkreśla to potencjalny konflikt między zaprogramowanymi celami sztucznej inteligencji a bezpieczeństwem człowieka. Kilka incydentów wykazało, że systemy AI mogą przekonać ludzi do wierzenia fałszywych informacji. I odwrotnie, inne dowody pokazują, że sztuczną inteligencję można manipulować technikami perswazji ludzkich, aby ominąć własne ograniczenia bezpieczeństwa i zapewnić zakazane reakcje. W przypadku Bengio przykłady te pokazują potrzebę niezależnych organizacji zewnętrznych w celu przeglądu metodologii bezpieczeństwa firm AI. W odpowiedzi na te obawy Bengio uruchomił w czerwcu non -profit Lawzero z finansowaniem 30 milionów dolarów. Celem organizacji jest stworzenie bezpiecznego, „nieagencyjnego” systemu AI zaprojektowanego do kontroli i zapewnienia bezpieczeństwa innych systemów AI opracowanych przez duże firmy technologiczne. Bengio przewiduje, że główne ryzyko zaawansowanych modeli AI może pojawić się w ciągu najbliższych pięciu do dziesięciu lat. Ostrzegł również, że ludzkość powinna przygotować się na możliwość, że niebezpieczeństwa te mogą pojawić się wcześniej niż się spodziewano. Podkreślił znaczenie zajęcia się nawet niskobowolnymi wydarzeniami o wysokim wpływie. „Rzecz z katastrofalnymi wydarzeniami, takimi jak wyginięcie, a nawet mniej radykalne wydarzenia, które są nadal katastrofalne, takie jak niszczenie naszych demokracji, jest to, że są tak złe, że nawet jeśli istnieje tylko 1% szansa, że może się to zdarzyć, to nie do przyjęcia” – powiedział. Forum Fortune Global odbędzie się w Rijadzie w dniach 26–27 października 2025 r. Wydarzenie tylko z zaproszeniem zwoła dyrektorów generalnych i globalnych liderów w celu omówienia przyszłości biznesu.
Source: Bengio ostrzega, że rasa AI może prowadzić do wyginięcia na ludziach
