Microsoft представила новейший AI-ускоритель Maia 200 с памятью HBM3e объемом 216 ГБ, изготовленный по 3-нм техпроцессу
Microsoft представила свой новейший запатентованный ускоритель искусственного интеллекта Azure Maia 200. Новый чип представляет собой следующее поколение серверных графических процессоров Maia компании, предназначенных для решения задач выполнения моделей искусственного интеллекта со скоростью и производительностью, превосходящими предложения основных конкурентов, таких как Amazon и Google.
Maia 200 позиционируется как самая эффективная система вывода, когда-либо реализованная Microsoft.
Во всех пресс-релизах компании подчеркиваются как высокие показатели производительности, так и заявления о приверженности Microsoft защите окружающей среды. Компания утверждает, что Maia 200 обеспечивает на 30% большую производительность за доллар по сравнению с Maia 100 первого поколения, что весьма впечатляет, учитывая, что новый чип также имеет TDP на 50% выше, чем его предшественник.
Maia 200 построен по 3-нм техпроцессу TSMC и содержит 140 миллиардов транзисторов. Говорят, что он способен обеспечить производительность до 10 Пфлопс в вычислениях FP4, что в три раза выше, чем у конкурента Amazon Trainium3. Maia 200 оснащена 216 ГБ памяти HBM3e с пропускной способностью 7 ТБ/с, а также имеет 272 МБ встроенной памяти. СРАМ память.
Сравнительная таблица выше, подготовленная порталом Tom’s Hardware, показывает, что Maia 200 демонстрирует явное превосходство в вычислительной мощности по сравнению с решением Amazon и в чем-то равняется AI-ускорителю B300 Ultra AI от Nvidia. Очевидно, что сравнивать их как прямых конкурентов бессмысленно. Покупатели не смогут купить Maia 200 сразу, а Blackwell B300 Ultra оптимизирован для гораздо более ресурсоемких задач, чем чип Microsoft. Кроме того, программный стек Nvidia дает B300 значительное преимущество перед любым другим конкурентом.
Однако Maia 200 превосходит B300 с точки зрения эффективности, что является большим достижением в эпоху, когда общественность обеспокоена негативным воздействием искусственного интеллекта на окружающую среду.
Maia 200 работает с почти вдвое меньшим TDP, чем B300 (750 против 1400 Вт). И хотя новый ускоритель искусственного интеллекта от Microsoft аналогичен по энергоэффективности своему предшественнику Maia 100, он, как и его предшественник, будет работать ниже своего теоретического максимального TDP. Для Maia 100 заявлен TDP 700 Вт, но Microsoft утверждает, что энергопотребление во время работы составляет всего 500 Вт.
Maia 200 оптимизирована для работы с 4-битными (РП4) и 8-битный (РП8) точные вычисления с плавающей запятой. Этот ускоритель искусственного интеллекта предназначен для клиентов, работающих с моделями искусственного интеллекта, которым требуется производительность FP4, а не более сложные операции. Как предполагает Tom’s Hardware, большая часть бюджета Microsoft на исследования и разработки этого чипа ушла на иерархию памяти, используемую в 272 МБ высокопроизводительной SRAM. Последняя делится на «многоуровневую кластерную SRAM (CSRAM) и пластина SRAM (ТСРАМ)», что обеспечивает улучшенную производительность и философию интеллектуального и равномерного распределения рабочей нагрузки в чипах HBM и SRAM.
Сообщается, что ускорители искусственного интеллекта Maia 200 уже развернуты в центральном дата-центре Microsoft в США (Лазурный), а будущее развертывание планируется в западном центре обработки данных (Финикс, Аризона). Чипы станут частью гетерогенной инфраструктуры Microsoft, работающей в тандеме с различными другими ускорителями искусственного интеллекта.