Samsung wprowadził na rynek zupełnie nowy chip HBM, który jest dwukrotnie szybszy i o 70% bardziej wydajny, a także zwiększa prędkość przetwarzania AI.
W 2015 roku AMD chwaliło się kartami graficznymi z pamięcią HBM, teoretyczną rewolucją w wydajności i funkcjach. Ale pamięci GDDR6 zdominowały rynek ze względu na lepszy stosunek ceny do wydajności.
Pamięć Samsung HBM2 zwiększy prędkość przetwarzania AI
Jednak Samsung właśnie zaprezentował swoje nowe chipy HBM-PIM (Process-In-Memory), które wyróżniają się technologią HBM2 oraz integracją systemu sztucznej inteligencji, która sprawia, że przetwarzanie jest szybsze i bardziej wydajne niż kiedykolwiek.
Te układy pamięci mają silnik sztucznej inteligencji, który jest odpowiedzialny za zarządzanie wieloma wykonywanymi na nich operacjami, co pomaga podczas przenoszenia danych z pamięci do procesora lub odwrotnie, aby zużywać mniej energii i uzyskiwać liczby całkowite w transferach.
Według Samsunga, stosując ten system do pamięci HBM2 Aquablot, można podwoić wydajność, ale także zmniejszyć zużycie energii o ponad 70%, twierdzenia z pewnością są uderzające i mogą po raz kolejny zwiększyć wykorzystanie tego typu technologii na masywnym skala.
Nie ma potrzeby wprowadzania znacznych zmian oprogramowania ani sprzętu
Te nowe pamięci nie wymagają dalszych zmian oprogramowania ani sprzętu i są już w fazie testów, aby być dostępne na rynku prawdopodobnie w drugiej połowie roku.
Każdy bank pamięci ma małą programowalną jednostkę obliczeniową (PCU) działającą z częstotliwością 300 MHz. Ale jest wada, ponieważ nie ma takiego miejsca na pamięć, a każda kostka pamięci ma połowę pojemności (4 GB) w porównaniu do konwencjonalnych matryc HBM2 8 GB. Aby zrównoważyć tę sytuację, Samsung faktycznie łączy matryce z PCU z innymi bez PCU, aby uzyskać chipy 6 GB.
W tej chwili wspomnienia te nie będą dostępne dla kart graficznych, takich jak te, które AMD wypuściło lata temu, a pomysł polega na oferowaniu tych modułów w centrach danych i systemach obliczeniowych o wysokiej wydajności (HPC).