Стеки памяти Micron 12-Hi HBM3E имеют емкость 36 ГБ, что на 50% больше, чем у предыдущих версий 8-Hi, в которых было 24 ГБ. Эта увеличенная емкость позволяет центрам обработки данных запускать более крупные модели искусственного интеллекта, такие как Llama 2, с до 70 миллиардами параметров на одном процессоре. Эта возможность устраняет необходимость в частой разгрузке процессора и сокращает задержки при обмене данными между графическими процессорами, ускоряя обработку данных.
Что касается производительности, стеки Micron 12-Hi HBM3E обеспечивают пропускную способность памяти более 1,2 ТБ / с при скорости передачи данных более 9,2 Гбит / с. По данным компании, несмотря на то, что объем памяти на 50% выше, чем у конкурентов, HBM3E от Micron потребляет меньше энергии, чем стеки 8-Hi HBM3E.
HBM3E 12-high от Micron включает в себя полностью программируемую встроенную систему самотестирования памяти (MBIST) для обеспечения более быстрого вывода на рынок и надежности для своих клиентов. Эта технология может имитировать трафик системного уровня на полной скорости, обеспечивая тщательное тестирование и более быструю валидацию новых систем.
Устройства памяти HBM3E от Micron совместимы с технологией упаковки «чип на пластине на подложке» (CoWoS) компании TSMC, широко используемой для упаковки процессоров искусственного интеллекта, таких как H100 и H200 от Nvidia.
“TSMC и Micron поддерживают долгосрочное стратегическое партнерство”, — сказал Дэн Кочпатчарин, глава подразделения по управлению экосистемой и альянсами в TSMC. “В рамках экосистемы OIP мы тесно сотрудничали с Micron, чтобы система на базе HBM3E и дизайн упаковки ”чип на пластине на подложке» (CoWoS) поддерживали инновации в области искусственного интеллекта наших клиентов».
Сообщение Micron представил готовые к производству чипы 12-Hi HBM3E для графических процессоров искусственного интеллекта следующего поколения — до 36 ГБ на стек со скоростью более 9,2 Гт/c появились сначала на Время электроники.