Micron представила модули оперативной памяти SOCAMM2 объемом 192 ГБ для серверов искусственного интеллекта

Micron представила модули оперативной памяти SOCAMM2 объемом 192 ГБ для серверов искусственного интеллекта

Micron Technology анонсировала компактный СОКАММ2 (Маленькие модули памяти со сжатием структуры) Модули оперативной памяти, предназначенные для использования в серверах для задач, связанных с искусственным интеллектом. Продукты на базе энергоэффективных чипов LPDDR5X имеют емкость 192 ГБ.

Первое поколение модулей SOCAMM было анонсировано в марте этого года. Их размеры составляют 14×90 мм. В производственном процессе используется DRAM 1β (пятое поколение класса 10 нм), а их емкость составляет 128 ГБ. Решения SOCAMM2 производятся с использованием самой передовой технологии Micron – DRAM 1γ (память шестого поколения класса 10 нм). По сравнению с исходными модулями емкость SOCAMM2 увеличена в полтора раза при сохранении тех же габаритных размеров. При этом энергоэффективность выросла более чем на 20%.. По сравнению с аналогичными решениями DDR5 RDIMM энергоэффективность повышена более чем на 66%. Заявлена ​​скорость передачи данных до 9,6 Гбит/с на порт.

Таким образом, Micron утверждает, что технология SOCAMM2 превращает маломощную память LPDDR5X, изначально разработанную для смартфонов, в эффективные решения для центров обработки данных. В то же время модульная конструкция SOCAMM2 и инновационная технология штабелирования повышают удобство обслуживания и упрощают конструкцию серверов с жидкостным охлаждением.

Отгрузки образцов новой памяти уже начались. Micron активно участвует в разработке спецификации JEDEC SOCAMM2 и тесно сотрудничает с отраслевыми партнерами, чтобы вывести решения на коммерческий рынок. До сих пор модули SOCAMM использовались в NVIDIA GB300.

Подписаться
Уведомить о
guest

0 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии