Nvidia ogłosiła procesor graficzny „Rubin CPX” na AI Infra Summit, specjalistycznym akceleratorze z nadchodzącej rodziny „Rubin” zaprojektowanej dla masywnych modeli AI. Oczekiwana do końca 2026 r. Chip dostarcza 30 PEAFLOPS NVFP4 obliczeniowej na matrycy monolitycznej z 128 GB pamięci GDDR7. Ta monolityczna konfiguracja jest odejściem od pakietów Dual GPU obecnej architektury Blackwell i Blackwell Ultra Architecture Nvidia i tego, co nastąpi reszta rodziny Rubin. Rubin CPX dotyczy obliczeniowych wąskich gardeł w scenariuszach rozszerzonego kontekstu, przetwarzając miliony tokenów jednocześnie dla aplikacji takich jak kompleksowa analiza bazy kodu oprogramowania i godzinne przetwarzanie wideo, które mogą wymagać nawet miliona tokenów. Procesor integruje cztery kodery wideo NVENC i cztery NVDEC na chipie, umożliwiając usprawnione przepływy pracy multimedialnej. NVIDIA stwierdza, że Rubin CPX dostarcza trzykrotnie szybkość przetwarzania uwagi swoich obecnych systemów GB300 Blackwell Ultra Accelerator. Architektura wykorzystuje optymalizowane koszty podejścia jednorodzinnego, aby potencjalnie zmniejszyć złożoność produkcji przy jednoczesnym zachowaniu gęstości obliczeniowej. Chociaż specyfikacje przepustowości pamięci są nieujawnione, interfejs 512-bitowy może przynieść przepustowość około 1,8 TB/s z chipsami pamięci GDDR7 30 Gb/s. NVIDIA planuje zintegrować procesory Rubin CPX z platformą CPX Vera Rubin NVL144, łącząc tradycyjne GPU Rubin z wyspecjalizowanymi wariantami CPX. Ta konfiguracja hybrydowa ma na celu 8 exaflopów łącznego obliczenia i 1,7 pb/s przepustowości pamięci na pełnym wdrożeniu stojaka. Stojak „Kyber” będzie zawierać adaptery sieciowe ConnectX-9 z sieciami 1600G, Spectrum6 z przełączaniem 102,4T oraz wspólnie pakowaną optyką. NVIDIA marketing Rubin CPX jako jednorazowy w rodzinie Rubin, aby obsłużyć złożoność systemów AI skalowania czasu. W miarę ewolucji modeli w wyrafinowane środki rozumowania, wnioskowanie dzieli się między obliczeniowo intensywnym przetwarzaniem kontekstowym a generowaniem tokena zależnego od przepustowości pamięci. Projekt CPX jest zoptymalizowany pod kątem tych podwójnych wymagań, obsługując operacje przedpełniające kontekst dla chatbotów korporacyjnych z 256 000 tokenów lub analizą kodu przekraczającym 100 000 wierszy. Ta specjalizacja ma kluczowe znaczenie dla systemów AI, które wymagają trwałej pamięci w rozszerzonych interakcjach, którą NVIDIA ma na celu bezproblemowe włączenie tego sprzętu. Szybki cykl rozwoju NVIDIA zwiększył wyniki finansowe, a firma zgłosiła 41,1 mld USD sprzedaży centrów danych w ostatnim kwartale.
Source: Nvidia ogłasza Rubin CPX GPU dla długiego kontekstu AI





