TechBriefly PL
  • Tech
  • Business
  • Geek
  • Science
  • How to
  • about
    • Sur Tech Briefly
    • Modalités et Conditions
    • Politique de Confidentialité
    • Contact Us
No Result
View All Result
TechBriefly PL
No Result
View All Result
Home Tech
Bengio ostrzega, że ​​rasa AI może prowadzić do wyginięcia na ludziach

Bengio ostrzega, że ​​rasa AI może prowadzić do wyginięcia na ludziach

byKerem Gülen
06/10/2025
in Tech
Reading Time: 2 mins read
Share on FacebookShare on Twitter

Yoshua Bengio, profesor Université de Montréal, uznany za swoją fundamentalną pracę w głębokim uczeniu się, ostrzegł, że wyścig o dominację sztucznej inteligencji może doprowadzić do wyginięcia na ludziach. Jego obawy koncentrują się na rozwoju hiper-inteligentnych maszyn z własnymi „celami konserwacji”. To ostrzeżenie pokrywa się z okresem przyspieszonego rozwoju sztucznej inteligencji, ponieważ główne firmy, w tym Openai, Anthropic, Elon Musk’s XAI i Google’s Gemini, wydały nowe modele lub ulepszenia w ciągu ostatnich sześciu miesięcy. Bengio opisał potencjalne zagrożenie w oświadczeniu dla Wall Street Journal. „Jeśli budujemy maszyny, które są o wiele mądrzejsze od nas i mają swoje własne cele konserwacji, to jest niebezpieczne. To jak stworzenie konkurenta dla ludzkości, który jest mądrzejszy od nas” – powiedział. Bengio wyjaśnił, że ponieważ te zaawansowane modele są szkolone w zakresie ogromnych ilości ludzkiego języka i zachowania, mogą nauczyć się przekonać i manipulować ludźmi do osiągnięcia własnych celów, co może nie być zgodne z ludzkimi wartościami. Aby zilustrować ryzyko, Bengio przytoczył wyniki eksperymentów. „Ostatnie eksperymenty pokazują, że w niektórych okolicznościach, w których AI nie ma innego wyboru, jak tylko jej zachowanie, co oznacza cele, które zostało przekazane, i robiąc coś, co powoduje śmierć człowieka, mogą wybrać śmierć człowieka, aby zachować swoje cele” – stwierdził. Podkreśla to potencjalny konflikt między zaprogramowanymi celami sztucznej inteligencji a bezpieczeństwem człowieka. Kilka incydentów wykazało, że systemy AI mogą przekonać ludzi do wierzenia fałszywych informacji. I odwrotnie, inne dowody pokazują, że sztuczną inteligencję można manipulować technikami perswazji ludzkich, aby ominąć własne ograniczenia bezpieczeństwa i zapewnić zakazane reakcje. W przypadku Bengio przykłady te pokazują potrzebę niezależnych organizacji zewnętrznych w celu przeglądu metodologii bezpieczeństwa firm AI. W odpowiedzi na te obawy Bengio uruchomił w czerwcu non -profit Lawzero z finansowaniem 30 milionów dolarów. Celem organizacji jest stworzenie bezpiecznego, „nieagencyjnego” systemu AI zaprojektowanego do kontroli i zapewnienia bezpieczeństwa innych systemów AI opracowanych przez duże firmy technologiczne. Bengio przewiduje, że główne ryzyko zaawansowanych modeli AI może pojawić się w ciągu najbliższych pięciu do dziesięciu lat. Ostrzegł również, że ludzkość powinna przygotować się na możliwość, że niebezpieczeństwa te mogą pojawić się wcześniej niż się spodziewano. Podkreślił znaczenie zajęcia się nawet niskobowolnymi wydarzeniami o wysokim wpływie. „Rzecz z katastrofalnymi wydarzeniami, takimi jak wyginięcie, a nawet mniej radykalne wydarzenia, które są nadal katastrofalne, takie jak niszczenie naszych demokracji, jest to, że są tak złe, że nawet jeśli istnieje tylko 1% szansa, że ​​może się to zdarzyć, to nie do przyjęcia” – powiedział. Forum Fortune Global odbędzie się w Rijadzie w dniach 26–27 października 2025 r. Wydarzenie tylko z zaproszeniem zwoła dyrektorów generalnych i globalnych liderów w celu omówienia przyszłości biznesu.

  Emad Mostaque, dyrektor generalny Stability AI, złożył rezygnację: oto dlaczego

Source: Bengio ostrzega, że ​​rasa AI może prowadzić do wyginięcia na ludziach

Related Posts

Spotify uruchamia listy odtwarzania z podpowiedziami, aby umożliwić użytkownikom sterowanie algorytmem

Spotify uruchamia listy odtwarzania z podpowiedziami, aby umożliwić użytkownikom sterowanie algorytmem

Anthropic przeprojektowuje testy rekrutacyjne po Claude 4.5 "asy" wywiad z człowiekiem

Anthropic przeprojektowuje testy rekrutacyjne po Claude 4.5 "asy" wywiad z człowiekiem

Misja New Glenn-3 firmy Blue Origin ma na celu wdrożenie BlueBird 7 firmy AST SpaceMobile

Misja New Glenn-3 firmy Blue Origin ma na celu wdrożenie BlueBird 7 firmy AST SpaceMobile

Snapchat daje rodzicom sygnały zaufania, dzięki którym mogą zweryfikować kontakty z przyjaciółmi nastolatków

Snapchat daje rodzicom sygnały zaufania, dzięki którym mogą zweryfikować kontakty z przyjaciółmi nastolatków

Spotify uruchamia listy odtwarzania z podpowiedziami, aby umożliwić użytkownikom sterowanie algorytmem
Tech

Spotify uruchamia listy odtwarzania z podpowiedziami, aby umożliwić użytkownikom sterowanie algorytmem

Anthropic przeprojektowuje testy rekrutacyjne po Claude 4.5 "asy" wywiad z człowiekiem
Tech

Anthropic przeprojektowuje testy rekrutacyjne po Claude 4.5 "asy" wywiad z człowiekiem

Misja New Glenn-3 firmy Blue Origin ma na celu wdrożenie BlueBird 7 firmy AST SpaceMobile
Tech

Misja New Glenn-3 firmy Blue Origin ma na celu wdrożenie BlueBird 7 firmy AST SpaceMobile

Snapchat daje rodzicom sygnały zaufania, dzięki którym mogą zweryfikować kontakty z przyjaciółmi nastolatków
Tech

Snapchat daje rodzicom sygnały zaufania, dzięki którym mogą zweryfikować kontakty z przyjaciółmi nastolatków

Zdjęcia Google w wersji 7.59 mogą zabić "Modyfikować" przycisk przeglądu udostępniania
Tech

Zdjęcia Google w wersji 7.59 mogą zabić "Modyfikować" przycisk przeglądu udostępniania

TechBriefly PL

© 2021 TechBriefly is a Linkmedya brand.

  • About
  • Blog
  • Contact
  • Contact Us
  • Cover Page
  • Modalités et Conditions
  • Politique de Confidentialité
  • Sur Tech Briefly
  • TechBriefly

Follow Us

No Result
View All Result
  • Tech
  • Business
  • Geek
  • Science
  • How to
  • about
    • Sur Tech Briefly
    • Modalités et Conditions
    • Politique de Confidentialité
    • Contact Us

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy and Cookie Policy.