Zaledwie miesiąc po opuszczeniu OpenAI Ilya Sutskever ogłosił założenie Safe Superintelligence Inc (SSI). Inni założyciele to Daniel Gross, były partner w Y Combinator i Daniel Levy, były inżynier w OpenAI.
W zeszłym miesiącu dzieliliśmy się z Wami odejściem współzałożyciela OpenAI i byłego głównego naukowca Ilyi Sutskevera z OpenAI, co wywołało poruszenie w mediach społecznościowych i świecie technologii.
Suckew stwierdził, że jego nowy projekt ma dla niego znaczenie i obiecał podzielić się szczegółami. Długo oczekiwane szczegóły w końcu wychodzą na światło dzienne. Oto wszystkie szczegóły.
Dlaczego Ilya Sutskever założył Safe Superintelligence (SSI)?
Sutskever był jednym z członków zarządu, którzy głosowali za usunięciem dyrektora generalnego OpenAI Sama Altmana w listopadzie zeszłego roku ze względu na problemy z komunikacją i zaufaniem. Dlatego te kwestie w OpenAI mogły odegrać ważną rolę w jego decyzji o opuszczeniu firmy. W rezultacie Suckewer ma teraz taką możliwość Bezpieczna superinteligencja.
W poście na Platforma XFirma Safe Superintelligence Inc. stwierdziła, że jej celem jest „podejście do bezpieczeństwa i możliwości łącznie jako problemów technicznych, które należy rozwiązać poprzez rewolucyjną inżynierię i przełomy naukowe”.
Superinteligencja jest w zasięgu ręki.
Budowa bezpiecznej superinteligencji (SSI) to najważniejszy problem techniczny naszych czasów.
Założyliśmy pierwsze na świecie proste laboratorium SSI, mając jeden cel i jeden produkt: bezpieczną superinteligencję.
Nazywa się to bezpieczną superinteligencją…
— SSI Inc. (@ssi) 19 czerwca 2024 r
Firma twierdzi jednak, że skupia się wyłącznie na tym, aby nie rozpraszały jej koszty ogólne zarządzania ani cykle produktów, a jej model biznesowy to taki, w którym bezpieczeństwo, ochrona i postęp są wolne od krótkoterminowych presji komercyjnych.
Safe Superintelligence ma biura w Palo Alto w Kalifornii i Tel Awiwie. Spółka nie ogłosiła jednak inwestorów ani szczegółów na temat swojego modelu biznesowego. Biorąc pod uwagę, że OpenAI zaczynało jako organizacja non-profit, a później przekształciło się w spółkę zależną nastawiona na zysk, nie wiadomo jeszcze, jakie będzie podejście Safe Superintelligence do finansowania. Mimo to Daniel Gross stwierdził w: wywiad z Bloombergiem że Superinteligencja Bezpieczna nie ma obaw co do pozyskiwania kapitału.
Safe Superintelligence Inc., nowa firma byłego głównego naukowca OpenAI Ilyi Sutskevera skupiła się na opracowywaniu „bezpieczna superinteligencja„, wywołuje emocje w świecie sztucznej inteligencji. Przyszła praca firmy i kroki w kierunku osiągnięcia celu „bezpieczna superinteligencja” będzie ściśle monitorowane.
Autor wyróżnionego obrazu: OpenAI
Source: Ilya Sutskever założył Safe Superintelligence (SSI) miesiąc po opuszczeniu OpenAI