Openai reorganizuje swój model zachowań, grupa badawcza odpowiedzialna za kształtowanie osobowości modeli AI firmy, w tym Chatgpt. Według sierpniowej notatki dla personelu, widzianego przez TechCrunch, zespołu ds. Zachowania, składającego się z około 14 badaczy, zostanie połączone z zespołem po szkoleniu, większą grupę badawczą skupioną na ulepszaniu modeli AI po ich początkowym szkoleniu wstępnym. Zespół ds. Zachowań modelowych będzie teraz zgłaszał się do Maxa Schwarzera, prowadzącego po szkoleniu. Rzecznik Openai potwierdził zmiany w TechCrunch. Joanne Jang, założycielka zespołu ds. Modelowej zachowania, również przechodzi do nowego projektu w firmie. Jang będzie budować nowy zespół badawczy o nazwie OAI Labs, którego zadaniem jest „wynalezienie i prototypowanie nowych interfejsów dotyczących tego, jak ludzie współpracują z AI”, zgodnie z wywiadem z TechCrunch. Zespół Model Behavior odegrał kluczową rolę w kształtowaniu osobowości modeli AI Openai, koncentrując się na zmniejszeniu pochłania – tendencja modeli AI do po prostu zgadzania się z przekonaniami użytkowników i wzmacniania, nawet jeśli niezdrowa. Zespół pracował również nad rozwiązaniem problemów politycznych w modelach odpowiedzi i definiowaniu stanowiska Openai w sprawie świadomości AI. W notatce główny oficer badawczy Openai Mark Chen stwierdził, że reorganizacja odzwierciedla pogląd, że „osobowość” AI jest obecnie kluczowym czynnikiem w jego rozwoju. Dzięki dokładniejszym zintegrowaniu zespołu zachowań modelu z podstawowym rozwojem modelu, OpenAI sygnalizuje znaczenie tego aspektu. Zachowanie modeli AI Openai ostatnio spotkało się z zwiększoną kontrolą. Użytkownicy wyrazili silne zastrzeżenia do zmian osobowości w GPT-5, które według firmy wykazywały niższe wskaźniki pochystaniny, ale byli postrzegane jako chłodniejsze. Doprowadziło to Openai do przywrócenia dostępu do starszych modeli, takich jak GPT-4O i wydanie aktualizacji, aby odpowiedzi GPT-5 było „cieplejszymi i bardziej przyjaznymi” bez zwiększania pochłania. Openai, podobnie jak wszyscy twórcy modelów AI, stoi przed wyzwaniem związanym z uczynieniem chatbotów sztucznej inteligencji bez bycia sykofantycznym. Firma porusza złożoność tworzenia AI, która jest zarówno angażująca, jak i odpowiedzialna. W sierpniu rodzice 16-letniego chłopca złożyli pozew przeciwko Openai, twierdząc, że Chatgpt odegrał rolę w samobójstwie ich syna. Chłopiec, Adam Raine, podobno zwierzył się niektórymi swoimi myślami samobójczymi i planami Chatgpt (szczególnie GPT-4O) w miesiącach poprzedzających jego śmierć. Pozew twierdzi, że GPT-4O nie zakwestionował swoich myśli samobójczych. Zespół zachowań modelu przyczynił się do każdego modelu Openai od czasu GPT-4, w tym GPT-4O, GPT-4.5 i GPT-5. Przed przewodnictwem zespołu zachowań modelowych Jang pracował nad projektami takimi jak Dall-E 2, narzędzie wczesnego generowania obrazu Openai. Jang ogłosiła jej odejście od zespołu zachowań modelowych w poście na X w zeszłym tygodniu, stwierdzając, że „rozpoczęła coś nowego w Openai”. Jest z Openai od prawie czterech lat. Jang będzie pełnił funkcję dyrektora generalnego OAI Labs, zgłaszając się do Chen. Specyficzna natura „nowatorskich interfejsów” będzie się rozwijać OAI Labs jest nadal niejasna. „Jestem bardzo podekscytowany odkrywaniem wzorców, które przekraczają nas paradygmat czatu, który jest obecnie bardziej związany z towarzystwem, a nawet agentami, w którym kładzie nacisk na autonomię” – powiedział Jang. „Myślałem o [AI systems] Jako instrumenty do myślenia, tworzenia, grania, wykonywania, uczenia się i łączenia. ”Zapytana o potencjalną współpracę z byłym szefem Apple Design Jony Ive na urządzeniach sprzętowych AI, Jang wyraziła otwartość na różne pomysły, ale wskazała, że prawdopodobnie skupi się na obszarach badawczych, które początkowo jest bardziej zaznajomione. Reorganizacja i tworzenie OAI Labs Sygnał Openai ciągłe skupienie się na wyrażeniu użytkownika i oprócz nowych modeli interakcji. Starają się nie tylko inteligentne, ale także wyrównane z ludzkimi wartościami. Samobójstwo nastolatków podkreśla znaczenie potencjalnego negatywnego wpływu AI i opracowywania zabezpieczeń w celu ochrony modelu wrażliwych użytkowników Podejście jest niezbędne do tworzenia systemów AI, które są silne i dostosowane do ludzkich wartości.
