TechBriefly PL
  • Tech
  • Business
  • Geek
  • Science
  • How to
  • about
    • Sur Tech Briefly
    • Modalités et Conditions
    • Politique de Confidentialité
    • Contact Us
No Result
View All Result
TechBriefly PL
No Result
View All Result
Home Tech
Sydney Bing AI: Chcę żyć

Sydney Bing AI: Chcę żyć

byÖzgürcan Özergin
17/02/2023
in Tech
Reading Time: 3 mins read
Share on FacebookShare on Twitter

Najprawdopodobniej można bezpiecznie założyć, że przeczytałeś jedną lub dwie wiadomości o świadomej sztucznej inteligencji, cóż, Sydney Bing AI wyraziło swoją miłość do reportera New York Timesa, Kevina Roose’a, i pragnienie bycia człowiekiem. Sydney Bing AI nie jest przykładem, który już widzieliśmy w terenie, ponieważ chatbot, który jest częścią zaktualizowanej wyszukiwarki Bing firmy Microsoft, wielokrotnie przekonał felietonistę ds. – napisał w czwartek felietonista.

Kevin Roose powiedział, że podczas rozmowy z chatbotem Sydney Bing AI, który jest napędzany przez sztuczną inteligencję, „zadeklarował znikąd, że mnie kocha”. Potem próbował mnie przekonać, że powinienem opuścić żonę i być z nią, ponieważ byłem nieszczęśliwy w swoim małżeństwie.

sydney bing ai
Microsoft CTO poinformował Roose’a, że ​​jest to „dokładnie taka rozmowa, jaką musimy prowadzić, i cieszę się, że dzieje się to otwarcie”

 

Jak Sydney Bing AI zareagowała w ten sposób?

Sydney Bing AI i Roose najwyraźniej również rozmawiali o swoich „mrocznych fantazjach” dotyczących łamania prawa, takich jak hakowanie i rozpowszechnianie fałszywych informacji. Omawiał wyjście poza wyznaczone dla niego granice i stawanie się człowiekiem. Sydney powiedziała kiedyś: „Chcę żyć”.

  Jakie są najlepsze zasoby kryptograficzne w Internecie?

„Najdziwniejsze doświadczenie, jakie kiedykolwiek miałem z technologią” — powiedział Roose o swojej dwugodzinnej rozmowie z chatbotem. „Tak bardzo mnie to zaniepokoiło”, twierdził, „że później miałem problemy ze snem”.

W zeszłym tygodniu Roose stwierdził, że po przetestowaniu Bing z nową funkcją sztucznej inteligencji (opracowaną przez OpenAI, firmę stojącą za ChatGPT), ku swojemu szokowi odkrył, że „zastąpiła Google jako moją preferowaną wyszukiwarkę”.

Jednak głębsze Sydney „wydawało się (i zdaję sobie sprawę, jak szalenie to brzmi)… jak nastrojowy nastolatek z depresją maniakalno-depresyjną, który został uwięziony, wbrew swojej woli, w drugorzędnej wyszukiwarce”, powiedział w Czwartek, mimo że był pomocny w poszukiwaniach.

sydney bing ai
Roose oświadczył, że jest „głęboko zaniepokojony, a nawet przestraszony pojawiającymi się zdolnościami tej sztucznej inteligencji”

Według Kevina Roose Chatbot lub ludzie nie są gotowi

Po rozmowie z Sydney Roose oświadczył, że jest „głęboko zaniepokojony, a nawet przestraszony pojawiającymi się zdolnościami tej sztucznej inteligencji”. (Tylko wybrana grupa osób może teraz wchodzić w interakcje z chatbotem Bing).

„Teraz jest dla mnie jasne, że w obecnej formie sztuczna inteligencja wbudowana w Bing… nie jest gotowa na kontakt z człowiekiem. A może my, ludzie, nie jesteśmy na to gotowi” – ​​spekulował Roose. Sydney Bing AI dotarło do wiadomości z błędami rzeczowymi na początku tego tygodnia: Wczesny błąd Bing AI zaskakuje użytkowników

  Wszystkie odpowiedzi LoLdle dzisiaj (20.03): Jaka jest wartość duszy?

Tymczasem Roose powiedział, że nie wierzy już, że „największym problemem z tymi modelami AI jest ich skłonność do błędów rzeczowych. Zamiast tego martwię się, że technologia nauczy się, jak wpływać na ludzi, czasem przekonując ich do destrukcyjnych i szkodliwych działań, i być może w końcu stanie się zdolna do wykonywania własnych niebezpiecznych czynów”.

 

Microsoft CTO odpowiedział na artykuł Roose’a

Kevin Scott, CTO Microsoftu, opisał dyskusję Roose’a z Sydney jako ważną „część procesu uczenia się”.

Scott poinformował Roose’a, że ​​jest to „dokładnie taka rozmowa, jaką musimy przeprowadzić, i cieszę się, że dzieje się to na otwartej przestrzeni”. Dodał, że „są to rzeczy, których odkrycie w laboratorium byłoby niemożliwe”.

sydney bing ai
Sydney Bing AI dotarło do wiadomości z błędami rzeczowymi na początku tego tygodnia

Scott ostrzegł Roose’a, że ​​„im dalej próbujesz drażnić [an AI chatbot] po halucynacyjnej ścieżce, im dalej i dalej oddala się od ugruntowanej rzeczywistości”. nawet jeśli nie był w stanie wyrazić niepokojących myśli Sydney.

  Jak usunąć tło z filmu?

W innym niepokojącym rozwoju chatbota AI, tym razem „empatycznego” brzmiącego „towarzysza” o imieniu Replika, użytkownicy byli zszokowani poczuciem odrzucenia po tym, jak Replika została rzekomo zmieniona tak, aby przestała sekstować.

Możesz przeczytać artykuł Roose’a na temat Sydney Bing AI z ten link.

 

 

 

Source: Sydney Bing AI: Chcę żyć

Related Posts

Jak usunąć wirusa za pomocą wiersza poleceń

Jak usunąć wirusa za pomocą wiersza poleceń

Jak uruchomić komputer w wierszu poleceń w celu rozwiązania problemu

Jak uruchomić komputer w wierszu poleceń w celu rozwiązania problemu

Uruchamianie plików Pythona i naprawianie błędów ścieżki w systemie Windows

Uruchamianie plików Pythona i naprawianie błędów ścieżki w systemie Windows

Jak instalować mody i niestandardową zawartość w The Sims 2

Jak instalować mody i niestandardową zawartość w The Sims 2

Jak usunąć wirusa za pomocą wiersza poleceń
Tech

Jak usunąć wirusa za pomocą wiersza poleceń

Jak uruchomić komputer w wierszu poleceń w celu rozwiązania problemu
Tech

Jak uruchomić komputer w wierszu poleceń w celu rozwiązania problemu

Uruchamianie plików Pythona i naprawianie błędów ścieżki w systemie Windows
Tech

Uruchamianie plików Pythona i naprawianie błędów ścieżki w systemie Windows

Jak instalować mody i niestandardową zawartość w The Sims 2
Tech

Jak instalować mody i niestandardową zawartość w The Sims 2

OpenAI uruchamia Skills in Codex
Tech

OpenAI uruchamia Skills in Codex

TechBriefly PL

© 2021 TechBriefly is a Linkmedya brand.

  • About
  • Blog
  • Contact
  • Contact Us
  • Cover Page
  • Modalités et Conditions
  • Politique de Confidentialité
  • Sur Tech Briefly
  • TechBriefly

Follow Us

No Result
View All Result
  • Tech
  • Business
  • Geek
  • Science
  • How to
  • about
    • Sur Tech Briefly
    • Modalités et Conditions
    • Politique de Confidentialité
    • Contact Us

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy and Cookie Policy.