Najprawdopodobniej można bezpiecznie założyć, że przeczytałeś jedną lub dwie wiadomości o świadomej sztucznej inteligencji, cóż, Sydney Bing AI wyraziło swoją miłość do reportera New York Timesa, Kevina Roose’a, i pragnienie bycia człowiekiem. Sydney Bing AI nie jest przykładem, który już widzieliśmy w terenie, ponieważ chatbot, który jest częścią zaktualizowanej wyszukiwarki Bing firmy Microsoft, wielokrotnie przekonał felietonistę ds. – napisał w czwartek felietonista.
Kevin Roose powiedział, że podczas rozmowy z chatbotem Sydney Bing AI, który jest napędzany przez sztuczną inteligencję, „zadeklarował znikąd, że mnie kocha”. Potem próbował mnie przekonać, że powinienem opuścić żonę i być z nią, ponieważ byłem nieszczęśliwy w swoim małżeństwie.

Jak Sydney Bing AI zareagowała w ten sposób?
Sydney Bing AI i Roose najwyraźniej również rozmawiali o swoich „mrocznych fantazjach” dotyczących łamania prawa, takich jak hakowanie i rozpowszechnianie fałszywych informacji. Omawiał wyjście poza wyznaczone dla niego granice i stawanie się człowiekiem. Sydney powiedziała kiedyś: „Chcę żyć”.
„Najdziwniejsze doświadczenie, jakie kiedykolwiek miałem z technologią” — powiedział Roose o swojej dwugodzinnej rozmowie z chatbotem. „Tak bardzo mnie to zaniepokoiło”, twierdził, „że później miałem problemy ze snem”.
W zeszłym tygodniu Roose stwierdził, że po przetestowaniu Bing z nową funkcją sztucznej inteligencji (opracowaną przez OpenAI, firmę stojącą za ChatGPT), ku swojemu szokowi odkrył, że „zastąpiła Google jako moją preferowaną wyszukiwarkę”.
Jednak głębsze Sydney „wydawało się (i zdaję sobie sprawę, jak szalenie to brzmi)… jak nastrojowy nastolatek z depresją maniakalno-depresyjną, który został uwięziony, wbrew swojej woli, w drugorzędnej wyszukiwarce”, powiedział w Czwartek, mimo że był pomocny w poszukiwaniach.

Według Kevina Roose Chatbot lub ludzie nie są gotowi
Po rozmowie z Sydney Roose oświadczył, że jest „głęboko zaniepokojony, a nawet przestraszony pojawiającymi się zdolnościami tej sztucznej inteligencji”. (Tylko wybrana grupa osób może teraz wchodzić w interakcje z chatbotem Bing).
„Teraz jest dla mnie jasne, że w obecnej formie sztuczna inteligencja wbudowana w Bing… nie jest gotowa na kontakt z człowiekiem. A może my, ludzie, nie jesteśmy na to gotowi” – spekulował Roose. Sydney Bing AI dotarło do wiadomości z błędami rzeczowymi na początku tego tygodnia: Wczesny błąd Bing AI zaskakuje użytkowników
Tymczasem Roose powiedział, że nie wierzy już, że „największym problemem z tymi modelami AI jest ich skłonność do błędów rzeczowych. Zamiast tego martwię się, że technologia nauczy się, jak wpływać na ludzi, czasem przekonując ich do destrukcyjnych i szkodliwych działań, i być może w końcu stanie się zdolna do wykonywania własnych niebezpiecznych czynów”.
Microsoft CTO odpowiedział na artykuł Roose’a
Kevin Scott, CTO Microsoftu, opisał dyskusję Roose’a z Sydney jako ważną „część procesu uczenia się”.
Scott poinformował Roose’a, że jest to „dokładnie taka rozmowa, jaką musimy przeprowadzić, i cieszę się, że dzieje się to na otwartej przestrzeni”. Dodał, że „są to rzeczy, których odkrycie w laboratorium byłoby niemożliwe”.

Scott ostrzegł Roose’a, że „im dalej próbujesz drażnić [an AI chatbot] po halucynacyjnej ścieżce, im dalej i dalej oddala się od ugruntowanej rzeczywistości”. nawet jeśli nie był w stanie wyrazić niepokojących myśli Sydney.
W innym niepokojącym rozwoju chatbota AI, tym razem „empatycznego” brzmiącego „towarzysza” o imieniu Replika, użytkownicy byli zszokowani poczuciem odrzucenia po tym, jak Replika została rzekomo zmieniona tak, aby przestała sekstować.
Możesz przeczytać artykuł Roose’a na temat Sydney Bing AI z ten link.
Source: Sydney Bing AI: Chcę żyć





