W tym tygodniu Miles Brundage, starszy doradca zespołu OpenAI pracujący nad gotowością AGI, trafił na pierwsze strony gazet. W posunięciu, które podkreśla rosnące obawy społeczności sztucznej inteligencji, Brundage wydał jasne ostrzeżenie: Nie, nawet OpenAI ani żadne inne wiodące laboratorium sztucznej inteligencji nie jest w pełni przygotowane na zagrożenia związane ze sztuczną inteligencją ogólną (AGI).
To najnowsze z serii głośnych wyjść, co rodzi poważne pytanie: czy jest miejsce, w którym AGI nie może potencjalnie wpłynąć na społeczeństwo? Być może nawet najbardziej zaawansowane laboratoria nie są gotowe, aby zarządzać potencjalnym wpływem AGI na społeczeństwo.
Właśnie wysłałem tę wiadomość do moich kolegów i szczegółowo opisuję moją decyzję i kolejne kroki w poście na blogu (patrz następny tweet): pic.twitter.com/NwVHQJf8hM
— Miles Brundage (@Miles_Brundage) 23 października 2024 r
Rosnące obawy dotyczące bezpieczeństwa sztucznej inteligencji w miarę utraty kluczowych badaczy przez OpenAI
Odejście Brundage jest ostatnim z szeregu odejść w OpenAI i ostatnio w różnym stopniu dystans między nim a firmą i kierownictwem wzrósł. Odejście obejmuje CTO Mira Murati, dyrektor ds. badań Boba McGrewai badania wiceprezes Barret Zophbardziej niż konkretny dowód na to, że przedsiębiorstwo jasno określiło swoje priorytety. Częściowo opuścił Brundage, ponieważ chciał prowadzić badania nad polityką dotyczącą sztucznej inteligencji bez pewnych ograniczeń, których doświadczył podczas pracy w OpenAI, gdzie czuł się coraz bardziej zahamowany przez dążenie OpenAI do ograniczenia otwartości, z jaką mógł publikować. Następnie rozwiązano zespół gotowości OpenAI na AGI, co wzbudziło obawy, czy firma jest zaangażowana w długoterminowe inicjatywy dotyczące bezpieczeństwa.
Tymczasem rozwój AGI przyspiesza szybciej, niż społeczeństwo jest gotowe postępować w sposób odpowiedzialny, stwierdził Brundage w swoim pożegnalnym oświadczeniu. „Ani OpenAI, ani żadne inne pionierskie laboratorium nie jest gotowe na AGI, a świat również nie jest przygotowany” – napisał, dodając, że chociaż kierownictwo OpenAI może zgodzić się z jego oceną, przejście firmy w stronę komercjalizacji może zagrozić jej misji skupiającej się na bezpieczeństwie. Według doniesień OpenAI doświadczyło presji, aby monetyzować swoją pracę, przechodząc od badań non-profit do modelu nastawionego na zysk i rezygnując z długoterminowych rozważań w imię komercyjnego dostarczania produktów, ale o ile dane mogą odzwierciedlać,
Ostrzeżenie Brundage’a nie jest odosobnione. Nastąpiło to również tuż po odejściu kluczowych badaczy, takich jak Jan Leike i współzałożyciel Ilya Sutskever, co pogłębiło rosnącą przepaść między rozwojem sztucznej inteligencji a bezpieczeństwem. Na początku tego roku Leike rozwiązał swój zespół ds. bezpieczeństwa, ponieważ miał on trudności ze zgromadzeniem wystarczających zasobów na kluczowe badania, w tym z powodu braku mocy obliczeniowej. Te wewnętrzne tarcia i zewnętrzne obawy wskazują na znaczną rozbieżność między aspiracjami laboratoriów zajmujących się sztuczną inteligencją a tym, z czym są gotowe sobie poradzić światowe maszyny do globalnego zarządzania w związku z potencjalnie szkodliwymi skutkami społecznymi AGI.
Oczywiście były badacz OpenAI Suchir Balaji wypowiadał się na temat tego, jak firma przedkładała zysk nad bezpieczeństwo, a pogłoski o licznych procesach sądowych przeciwko niej oskarżają OpenAI o naruszenie praw autorskich. Odejście Balaji i Brundage podkreślają rosnący niepokój wśród badaczy, którzy uważają, że komercyjny potencjał sztucznej inteligencji przewyższa potencjalne wysiłki mające na celu ograniczenie związanych z nią zagrożeń.
Kiedy po raz pierwszy usłyszałem o OpenAI LP, byłem zaniepokojony, ponieważ status OAI non-profit był częścią tego, co mnie przyciągnęło. Jednak od tego czasu wpadłem na ten pomysł z dwóch powodów: 1. Kiedy zagłębiałem się w szczegóły, zdałem sobie sprawę, że podjęto wiele kroków, aby zapewnić, że organizacja pozostanie skupiona na misji.
— Miles Brundage (@Miles_Brundage) 11 marca 2019 r
Ponieważ OpenAI w dalszym ciągu traci kluczowe osoby ze swoich zespołów ds. bezpieczeństwa, szersza społeczność AI staje przed pilnym pytaniem: dlaczego tak szybko pędzimy w kierunku AGI, nie zdając sobie sprawy z niektórych potencjalnych konsekwencji tego wyścigu? Odejście Brundage i ostrzejsze ostrzeżenia dotyczące jego wydajności przypominają nam, że ryzyko związane z AGI nie polega tylko na tym, że możemy przegrać wojnę. Tym bardziej jednak wyprzedzamy zdolność społeczeństwa do kontrolowania tego zjawiska. Podobnie jak w przypadku bezpieczeństwa sztucznej inteligencji, rozwój AGI będzie zależał od głosu alternatywnych kluczowych badaczy, którzy zdecydują się podążać niezależnymi ścieżkami i mogą nawet opowiadać się za mniej agresywną i odpowiedzialną procedurą rozwoju AGI.
Świat czeka, aby zobaczyć, czy te pionierskie laboratoria mogą być innowacyjne, a jednocześnie ponosić odpowiedzialność za zapewnienie, że AGI będzie działać na rzecz społeczeństwa, a nie przeciwko niemu, jeśli się pojawi. W centrum uwagi jest OpenAI i inne.
Kredyt obrazu: Furkan Demirkaja/Ideogram
Source: OpenAI stoi w obliczu niepewności, ponieważ najlepsi badacze alarmują o gotowości AI