Nvidia i AMD razem planują niestandardowe pamięci HBM4

13 godziny temu 4

Rywalizacja o technologiczną przewagę i indywidualne rozwiązania gigantów 

Dotychczasowi producenci akceleratorów musieli korzystać z uniwersalnych modułów HBM, jednak nadchodząca generacja HBM4 przyniesie zupełnie nowe możliwości. Obie firmy planują osadzenie w pamięciach specjalnej warstwy bazowej zawierającej niestandardową logikę i układy przyspieszające przetwarzanie. Takie rozwiązanie będzie działać jak dodatkowy procesor, optymalizując przepływ danych i zmniejszając opóźnienia. Szczególnie ważne to w procesach wnioskowania AI, gdzie każdy ułamek sekundy ma znaczenie.  

Czytaj też: YouTube przestanie nam wierzyć na słowo i sam sprawdzi nasz wiek 

Inteligentniejsze zarządzanie pamięcią może oznaczać nawet dwucyfrowy procentowy wzrost przepustowości przetwarzania tokenów, co bezpośrednio wpłynie na efektywność całych systemów. AMD i Nvidia zyskają istotną przewagę czasową nad konkurencją. Podczas gdy ich rozwiązania mają pojawić się w 2026 roku, inni gracze tacy jak Broadcom czy MediaTek będą musieli poczekać do 2027 roku na dostęp do podobnych modyfikacji w wersji HBM4E. 

Ta roczna różnica może być kluczowa w tak dynamicznie rozwijającym się segmencie, ponieważ w świecie sztucznej inteligencji rok to niemal epoka. Uważam za sceptyczne twierdzeń o nieodwracalnej zmianie hierarchii wśród gigantów na tym rynku, ale z pewnością jest to poważny atut strategiczny. Grupa zielonych pracuje nad architekturą Rubin, która ma znacząco przewyższać obecną generację Blackwell. To ambitny plan, zwłaszcza że Blackwell sam w sobie stanowi ogromny skok technologiczny. 

Czytaj też: Mobilne układy z 28 rdzeniami i grafiką Xe3 w Intel Nova Lake 

AMD z kolei przygotowuje serię akceleratorów Instinct MI400, która po raz pierwszy będzie skalowana na poziomie całych szaf serwerowych. Takie rozwiązanie może zrewolucjonizować budowę centrów danych dedykowanych sztucznej inteligencji, choć wdrożenie na szeroką skalę zawsze niesie ze sobą nieprzewidziane wyzwania. 

Najbardziej odczuwalne efekty nowych pamięci będą widoczne w zastosowaniach wrażliwych na opóźnienia. W procesach wnioskowania AI, gdzie szybkość reakcji często decyduje o użyteczności systemu, inteligentne zarządzanie przepływem danych może przynieść wyraźne korzyści. Mniej czasu oczekiwania na dostęp do informacji oznacza więcej mocy na rzeczywiste obliczenia. To może przełożyć się na płynniejsze działanie chatbotów, szybsze generowanie treści czy efektywniejszą analizę strumieni danych w czasie rzeczywistym.  

Wszystkie wiodące akceleratory AI wykorzystują dziś pamięci HBM zarówno do trenowania modeli, jak i wnioskowania. Dominacja tej technologii w segmencie AI sprawia, że każda jej modyfikacja ma wpływ na całą branżę. Produkcja pamięci HBM jest znacznie bardziej złożona niż standardowych modułów DRAM. Wymaga zastosowania zaawansowanych technik jak przelotowe otwory krzemowe i precyzyjne pakowanie.  

Czytaj też: Gamingowy monitor Samsung Odyssey OLED G6 500 Hz z rekordowym odświeżaniem 

Wydajność produkcyjna pozostaje niższa niż w przypadku konwencjonalnych układów, co przekłada się na ograniczoną dostępność i wyższe ceny. Dodatkowym problemem jest niezawodność. Awarie pamięci HBM stanowią jedną z głównych przyczyn usterek GPU w centrach danych. Rozwiązanie tych kwestii będzie kluczowe dla powodzenia nowych rozwiązań. 

Wprowadzane przez NVIDIĘ i AMD modyfikacje w architekturze HBM4 to moze być coś więcej niż ewolucja, to zmiana paradygmatu w projektowaniu akceleratorów AI. Roczna przewaga nad konkurencją oraz potencjalne zyski wydajnościowe mogą umocnić pozycję obu firm. Pytanie, czy pozostali gracze zdołają szybko nadrobić dystans, a standardowe rozwiązania HBM4E wystarczą do wyrównania szans. O ile zapowiedzi brzmią imponująco, ostateczny werdykt wyda dopiero praktyczne wdrożenie. 

Przeczytaj źródło