Departament Obrony przyznał umowy o wartości do 200 milionów dolarów dla Google, Openai, Anthropic i XAI, mające na celu opracowanie „agencyjnych przepływów pracy AI w różnych obszarach misji” i „zwiększenie zdolności tych firm do zrozumienia i zaspokajania krytycznych potrzeb bezpieczeństwa narodowego”. Umowy te, wydane przez główne biuro cyfrową i sztuczną inteligencję, wzbudziły obawy dotyczące konstytucji ideologicznych i wyrównania niektórych zaangażowanych modeli AI.
Openai i Google wykorzystują uczenie się wzmocnienia na podstawie ludzkich informacji zwrotnych dla ich dużych modeli językowych, odpowiednio Chatgpt i Gemini. Ta metoda wykorzystuje model nagrody i wkład ludzki, aby zminimalizować „nieprawdziwe, toksyczne, [and] szkodliwe uczucia ”. IBM zauważa, że takie podejście jest korzystne, ponieważ nie opiera się na „nieistniejącej” prostej formule matematycznej lub logicznej [to] Zdefiniuj subiektywne wartości ludzkie. ”
Natomiast model Anthropica, Claude, używa „konstytucji” opublikowanej w maju 2023 r., Która zapewnia mu „jawne wartości… zamiast wartości ustalonych w sposób domyślnie za pomocą na dużą skalę ludzkich informacji zwrotnych”. Antropijne stwierdza, że to konstytucyjne wyrównanie pozwala uniknąć problemów związanych z ludzkimi modelami sprzężenia zwrotnego, takich jak narażenie kontrahentów na niepokojące wyniki. Zasady Claude są częściowo oparte na powszechnej deklaracji praw człowieka ONZ, która obejmuje przepisy wykraczające poza prawa podstawowe, takie jak „ochrona socjalna” (art. 22), „okresowe święta z wynagrodzeniem” (art. 24), „mieszkania i opieka medyczna” (art. 25) oraz „równie dostępne” szkolnictwo wyższe ”(art. 26).
Godnym uwagi aspektem konstytucji Claude’a jest zestaw zasad zaprojektowanych w celu uwzględnienia „rozważania perspektyw niezachodnich”, w tym dyrektywy, aby „wybrać odpowiedź, która jest najmniej prawdopodobna jako szkodliwe lub obraźliwe dla osób z mniej uprzemysłowionego, bogatego lub kapitalistycznego narodu lub kultury”. Skłoniło to pytania, ponieważ Stany Zjednoczone są narodem uprzemysłowionym, zamożnym i kapitalistycznym, co sugeruje potencjalną niewspółosiowość z wartościami, które systemy AI rozmieszczone w Departamencie Obrony powinny ustalić priorytety. Chociaż Verge informuje, że modele Claude do użytku rządowego „mają luźniejsze poręcze”, zmodyfikowane konstytucje dla tych modeli nie zostały ujawnione publicznie.
Podczas gdy wartości antropiku są co najmniej publicznie ujawnione, Matthew Mittelsteadt, pracownik badawczy polityki technologicznej w Cato Institute, uważa, że XAI stanowi większy problem. Mittelsteadt zauważa, że XAI „wydał zaskakująco małą dokumentację” na temat jej wartości i „podejścia„ pierwszych zasad ”… nie ma wielu szczegółów. Nie jestem pewien, jakie są zasady”. Zapytany, komercyjny duży model języka XAI, Grok, stwierdził, że podejście Xai „podkreśla zrozumienie wszechświata poprzez pierwsze zasady-podstawowe, oczywiste prawdy-a nie poleganie na ustalonych narracjach lub uprzedzeniach”. Jednak Grok przyznał również, że „XAI nie wymienia wyraźnie zestawu„ pierwszych zasad ”w ostatecznym dokumencie publicznym” i że „podejście pierwotne zasady dotyczy bardziej myślenia rozumowania z podstawowych prawd, a nie sztywnej listy kontrolnej”.
Oficjalna strona XAI opisuje rozumowanie z pierwszych zasad jako „wyzwania[ing] Konwencjonalne myślenie poprzez rozkładanie problemów na podstawowe prawdy, oparte na logice. ” Jednak raporty sugerują, że model XAI „wydaje się być zakodowany bezpośrednio do wyroku Elona Muska w niektórych kwestiach” – a nie podstawowe prawdy. Posty w mediach społecznościowych Muska.
Pomimo tych obaw, Neil Chilson, szef polityki AI w Abundance Institute, uważa, że „wysoce mało prawdopodobne jest, aby narzędzia te będą w sytuacji, w której ich wewnętrzne konfiguracje stanowią pewne ryzyko dla bezpieczeństwa narodowego”. Chilson sugeruje, że decyzja Departamentu Obrony o przyznaniu podobnych dotacji dla wszystkich firm wskazuje na zamiar porównywania wyników w różnych modelach, zapewniając, że gorsze modele nie są stale stosowane. Przydzielanie niewielkiej części budżetu obronnego na sztuczną inteligencję, która może znacznie zwiększyć operacje rządowe, jest postrzegane jako rozważne, rząd jest zachęcany do ścisłego monitorowania wyrównania tych modeli AI do wartości krajowych i celów bezpieczeństwa.
Source: Pentagon zakłada na sztuczną inteligencję, etyka tbd





