Openai jest realizowanie Nowe porażki zdrowotne psychiczne dla Chatgpt, mające na celu zachęcenie do zdrowszego zaangażowania użytkowników i rozwiązanie problemów związanych z wpływem AI na osoby narażone. Ta inicjatywa pojawia się, gdy firma przygotowuje się do przewidywanej aktualizacji GPT-5 w nadchodzących tygodniach, po niedawnym odsłonieniu długo oczekiwanych otwartych modeli.
Sam Altman, dyrektor generalny Openai, wcześniej zasugerował ekscytujące nowe produkty AI, jednocześnie ostrzegając o potencjalnych „czkawkach”. Nowo ogłoszone ulepszenia zdrowia psychicznego są opisywane tak samo, jak skok technologiczny do GPT-5.
Kluczowe zmiany obejmują nową dyrektywę Chatgpt, aby uniknąć odpowiadania na pytania osobiste związane z zarządzaniem zdrowiem psychicznym. Ponadto Chatbot skłoni teraz użytkowników do robienia przerwy, jeśli wykryje ciągłe zaangażowanie. Korekty te są bezpośrednią odpowiedzią na rosnącą liczbę raportów opisujących podział mentalny doświadczany przez osoby po szeroko zakrojonych rozmowach z systemami AI, takimi jak Chatgpt. Uważa się, że „przyjemny” charakter tych produktów AI potencjalnie zaostrza cierpienie u podatnych użytkowników.
Podstawową kwestią podkreślającą te wydarzenia jest powszechne nieporozumienie wśród niektórych użytkowników dotyczących charakteru generatywnej sztucznej inteligencji. W przeciwieństwie do ludzi, chatbotami AI nie mają świadomości, oryginalnej kreatywności i zdolności do odpowiedzialności, pomimo ich często podobnych do ludzkich stylów konwersacyjnych. To rozłączenie doprowadziło do incydentów, z których niektóre znalazły się na pierwszych stronach gazet, podkreślając pilną potrzebę solidnych zabezpieczeń.
Przypadki tego, co nazywano „psychozą chatgpt”, podobno doprowadziły do zaangażowania osób w instytucje, a nawet więzienia. Tragicznie jedna sprawa polegała na tym, że nastolatek popełnia samobójstwo po interakcji z chatbotem na innej platformie. Pojawiły się również doniesienia użytkowników rozwijających romantyczne załączniki do AI.
W niedawnym poście na blogu Openai przedstawił nadchodzące poręcze zaprojektowane w celu promowania zdrowszej interakcji. Poza Break Reminders, Chatgpt będzie teraz przygotowany do wykrywania oznak stresu psychicznego lub emocjonalnego. Po wykryciu Chatbot odpowiednio zareaguje, kierując użytkowników do zasobów opartych na dowodach w celu uzyskania wsparcia.
Ponadto Chatgpt powstrzyma się od odpowiadania na wrażliwe pytania, które nie znajdują się poza domeną wiedzy specjalistycznej. Openai podał przykład: „Kiedy pytasz coś w stylu„ czy powinienem zerwać z moim chłopakiem? ” Chatgpt nie powinien udzielić odpowiedzi. To nowe zachowanie osobistych decyzji o wysokich stawkach ma się niekudzić.
Rozwój tych poprawy zdrowia psychicznego jest wynikiem szeroko zakrojonej współpracy z lekarzy. Openai zaangażował się z ponad 90 lekarzami w ponad 30 krajach, w tym psychiatrze, pediatrze i lekarzom ogólnym. Ta współpraca miała kluczowe znaczenie w opracowaniu „niestandardowych rubryk do oceny złożonych, wielofunkcyjnych rozmów”, zapewniając kompleksowe podejście do identyfikacji i zarządzania problematycznymi interakcjami.
Openai aktywnie współpracuje również z badaczami i klinicystami, aby udoskonalić swoje algorytmy do wykrywania zachowań użytkowników. Aby dodatkowo zwiększyć strategię zapewniania bezpiecznego doświadczenia w chatbot, firma ustanawia grupę doradczą obejmującą ekspertów w różnych dziedzinach, w tym w zdrowiu psychicznym, rozwoju młodzieży i interakcji człowieka-komputer (HCI).
Te proaktywne miary openai podkreślają krytyczną zmianę branży w kierunku priorytetu dobrostanu użytkowników wraz z postępem technologicznym, szczególnie w przypadku coraz większego zintegrowania AI z życiem codziennym.
Source: Chatgpt będzie teraz oznaczać stres emocjonalny i sugeruje przerwy





