Микрон и Нвидия объединяют усилия. Новая память HBM3E и SoCAMM для центров обработки данных и ИИ

Микрон и Нвидия объединяют усилия. Новая память HBM3E и SoCAMM для центров обработки данных и ИИ

Micron объявляет о сотрудничестве с NVIDIA, предоставляя HBM3E и SoCAMM память для нового поколения Серверов ИИ и дата -центров. HBM3E 12H 36 ГБ был оптимизирован для NVIDIA GB300 GRACE BLACKWELL, а HBM3E 8H 24GB будут поддерживать HGX B200 и GB200 NVL72. Благодаря пропускной способности 1,2 ТБ/с новые модули обеспечат более высокую производительность ИИ и HPC. Micron также анонсировал LPDDR5X SOCAMM, новый формат памяти сервера для вычислительных решений AI и Edge.

Micron объявляет о сотрудничестве с NVIDIA, предоставляя новаторную память HBM3E и SoCAMM для нового поколения серверов ИИ и дата -центров. Новые технологии повысят эффективность ИИ.

Микрон представил 1, Технологический процесс. Решение уже используется для производства памяти DDR5

Micron Technology официально объявила о введении новых решений для памяти для центров обработки данных и искусственного интеллекта, которые будут созданы в сотрудничестве с NVIDIA. Компания объявила, что она первая предоставила как HBM3E, так и SoCAMM (модуль сжатого сжатия с небольшим контуром), поддерживая новое поколение серверов AI, включая платформу NVIDIA HGX B200, B300 NVL16 и GB200 NVL72. HBM3E 12H 36GB от Micron был разработан специально для NVIDIA GB300 GRACE Blackwell Ultra Superchip Systems, а версия HBM3E 8H 24GB будет использоваться на платформах HGX B200 и GB200 NVL72. Используя эти модули, системы искусственного интеллекта смогут достичь еще более высокой емкости и энергоэффективности. 12-слойная память HBM3E обеспечивает впечатляющую пропускную способность, превышающую 1,2 ТБ/с. Это значительное улучшение по сравнению с предыдущими поколениями.

https://www.youtube.com/watch?v=BZWPZD1W7UY

Micron также представил новый формат SoCAMM LPDDR5X, который вводит меньший размер, большую энергоэффективность и более высокую пропускную способность по сравнению с традиционными модулями памяти сервера. Эта технология была оптимизирована для серверов искусственного интеллекта, краевых вычислений и интегрированных облачных решений, обеспечивая лучшую гибкость реализации и более низкие задержки в расчетах искусственного интеллекта. По словам представителей Micron, внедрение новой памяти в сочетании с архитектурой Nvidia Grace Blackwell откроет новые возможности для секторов AI и HPC (высокопроизводительных вычислений).

Micron 4600 — был представлен новый SSD с использованием разъема PCIE 5.0. Его целевая группа — профессионалы и игроки

Благодаря высокой плотности и оптимизированной энергоэффективности эти модули памяти станут ключевым элементом в будущем обучении и реализации моделей крупных языков (LLM) и физического моделирования, требующих высокой вычислительной мощности. Партнерство Micron и NVIDIA — еще один шаг к повышению эффективности систем и решений ИИ для центров обработки обработки данных. Производитель подтвердил, что его новая память будет доступна для клиентов уже в 2025 году, и у него есть возможность стать стандартом в отрасли.

Источник: Micron

Подписаться
Уведомить о
guest

0 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии