W niedzielę firma Anthropic ogłosiła wprowadzenie nowego pakietu funkcji związanych z opieką zdrowotną i naukami przyrodniczymi dla platformy sztucznej inteligencji Claude. Funkcje te umożliwiają użytkownikom udostępnianie dostępu do ich dokumentacji zdrowotnej i danych aplikacji fitness, w tym z aplikacji Apple iOS Health, w celu personalizacji rozmów związanych ze zdrowiem. Uruchomienie nastąpiło kilka dni po wprowadzeniu przez konkurencyjnego OpenAI narzędzia ChatGPT Health. Obie firmy oferują teraz narzędzia integrujące dane dotyczące zdrowia osobistego z interakcjami AI. Użytkownicy muszą zapisać się na listę oczekujących na usługę ChatGPT Health OpenAI, natomiast funkcje opieki zdrowotnej Anthropic są natychmiast dostępne dla abonentów planów Pro i Max w Stanach Zjednoczonych. Eric Kauderer-Abrams, dyrektor ds. nauk przyrodniczych w firmie Anthropic, w wywiadzie dla NBC News opisał nowe funkcje Claude’a w dziale opieki zdrowotnej. „Poruszając się po systemach opieki zdrowotnej i sytuacjach związanych ze zdrowiem, często masz wrażenie, że jesteś w pewnym sensie sam i że łączysz ze sobą wszystkie dane ze wszystkich źródeł, informacje na temat Twojego zdrowia i dokumentacji medycznej, a poza tym cały czas jesteś przy telefonie” – powiedział. „Jestem bardzo podekscytowana możliwością dotarcia do świata, w którym Claude może się tym wszystkim zająć”. Dodał, że narzędzia te pozwalają użytkownikom „zintegrować wszystkie dane osobowe z dokumentacją medyczną i dokumentacją ubezpieczeniową, a Claude jest koordynatorem i może poruszać się po całej sprawie i upraszczać ją”. Anthropic, jedna z największych na świecie firm zajmujących się sztuczną inteligencją, o której niedawno mówi się, że jest wyceniana na 350 miliardów dolarów, pozycjonuje te funkcje jako pomoce w rozwiązywaniu złożonych problemów związanych z opieką zdrowotną. OpenAI stwierdziło, że setki milionów ludzi co tydzień zadają na ChatGPT pytania związane ze zdrowiem lub dobrym samopoczuciem. Firma podkreśliła, że ChatGPT Health „nie jest przeznaczony do diagnozowania ani leczenia”, ale zamiast tego pomaga użytkownikom „poruszać się w codziennych pytaniach i rozumieć wzorce na przestrzeni czasu – nie tylko momenty choroby”. Narzędzia AI, takie jak Claude i ChatGPT, mogą pomóc w zrozumieniu raportów medycznych, weryfikacji decyzji lekarzy i podsumowaniu informacji dla osób pozbawionych dostępu do opieki medycznej. Anthropic podkreśliło środki ochrony prywatności w poście na blogu. Dane dotyczące zdrowia udostępnione Claude'owi są wykluczane z pamięci modelu i nie są wykorzystywane do uczenia przyszłych systemów. Użytkownicy mogą w dowolnym momencie odłączyć lub edytować uprawnienia. Firma wprowadziła także narzędzia dla podmiotów świadczących opiekę zdrowotną i rozszerzyła ofertę Claude for Life Science, aby usprawnić odkrycia naukowe. Obejmują one infrastrukturę zgodną z ustawą HIPAA, która łączy się z federalnymi bazami danych dotyczących ubezpieczenia zdrowotnego i oficjalnym rejestrem dostawców usług medycznych. Funkcje te mają na celu zmniejszenie obciążenia pracą poprzez automatyzację zadań, takich jak przygotowywanie wniosków o uprzednią zgodę na opiekę specjalistyczną i wspieranie odwołań ubezpieczeniowych poprzez dopasowanie wytycznych klinicznych do dokumentacji pacjenta. Dhruv Parthasarathy, dyrektor ds. technologii w Commure, firmie tworzącej rozwiązania AI do dokumentacji medycznej, powiedział w oświadczeniu, że funkcje Claude pomogą „oszczędzić lekarzom miliony godzin rocznie i przywrócić ich skupienie na opiece nad pacjentem”. Ogłoszenia są następstwem miesięcy analizy chatbotów AI zapewniających porady medyczne i dotyczące zdrowia psychicznego. W czwartek Character.AI i Google zgodziły się na ugodę w sprawie, w której utrzymują, że ich narzędzia AI przyczyniły się do pogorszenia zdrowia psychicznego wśród nastolatków, którzy zmarli w wyniku samobójstwa. Firmy Anthropic, OpenAI i inne firmy zajmujące się sztuczną inteligencją ostrzegają, że ich systemy mogą popełniać błędy i nie powinny zastępować profesjonalnej oceny. Polityka dopuszczalnego użytkowania firmy Anthropic stanowi, że „wykwalifikowany specjalista… musi dokonać przeglądu treści lub decyzji przed rozpowszechnieniem lub sfinalizowaniem”, gdy Claude jest wykorzystywany do „decyzji dotyczących opieki zdrowotnej, diagnozy medycznej, opieki nad pacjentem, terapii, zdrowia psychicznego lub innych wskazówek medycznych”. Kauderer-Abrams zauważyła: „Te narzędzia są niezwykle potężne i w przypadku wielu osób mogą zaoszczędzić 90% czasu, który spędzasz na czymś. Jednak w krytycznych przypadkach, gdy liczy się każdy szczegół, bezwzględnie powinieneś sprawdzić informacje. Nie twierdzimy, że możesz całkowicie usunąć człowieka z obiegu. Postrzegamy to jako narzędzie wzmacniające to, co potrafią eksperci-ludzi”.

