Intel и SambaNova выпустили продукт, который может вытеснить Nvidia в сегменте искусственного интеллекта

Intel и SambaNova выпустили продукт, который может вытеснить Nvidia в сегменте искусственного интеллекта

Intel и SambaNova анонсировали готовую к использованию гетерогенную архитектуру вывода ИИ, которая распределяет задачи между различными типами оборудования. Платформа использует графические процессоры для предварительной обработки, специализированные модули SambaNova для генерации токенов и процессоры Xeon 6 для управления задачами агентов.

Разработанная система разделяет процесс вывода логики на отдельные этапы, где каждый тип микросхемы выполняет определенную функцию. Графические процессоры или ускорители искусственного интеллекта выполняют первоначальную обработку длинных запросов (захват) и создание кешей «ключ-значение», а реконфигурируемые блоки данных SambaNova SN50 выполняют декодирование. В свою очередь, процессоры Intel Xeon 6 координируют балансировку нагрузки и выполняют операции, связанные с агентами ИИ, такие как компиляция кода и проверка результатов. Это позволит охватить максимально широкий спектр рабочих нагрузок и конкурировать с Nvidia и другими игроками рынка.

Этот подход разделения предварительного заполнения, предварительного заполнения, декодирования и генерации токенов, как отмечает Tom’s Hardware, перекликается со стратегией Nvidia в ее будущей платформе Rubin, где аналогичные функции должны были быть разделены между чипами Rubin CPX и Rubin GPU. Однако главное отличие состоит в том, что решения Nvidia пока нет на рынке, а Intel и SambaNova смогут предложить готовую к развертыванию архитектуру уже во второй половине 2026 года.

По внутренней оценке SambaNova Процессоры Xeon 6 ускоряют компиляцию LLVM более чем на 50% по сравнению с серверными чипами архитектуры Arm.. Кроме того, их производительность при выполнении задач векторных баз данных на 70% выше, чем у конкурирующих решений x86, таких как AMD EPYC. По словам представителей компаний, такое повышение эффективности достигается за счет оптимизации взаимодействия между компонентами системы и позволяет существенно сократить циклы разработки агентов кодирования и других приложений искусственного интеллекта целиком внутри компании.

Главным преимуществом новой архитектуры является ее полная совместимость с существующей инфраструктурой дата-центров, поддерживающей мощности до 30 кВт.

Это позволяет предприятиям развертывать решение без необходимости серьезной модернизации систем охлаждения и электропитания. Ожидается, что платформа будет доступна корпоративным клиентам, облачным операторам и инициативам национального правительства в области искусственного интеллекта во второй половине 2026 года.

Кеворк Кечичян, исполнительный вице-президент и генеральный менеджер Intel Data Center Group (DCG), отметил, что экосистема программного обеспечения центров обработки данных исторически была построена на платформе x86, что, по его мнению, обеспечивает роль Xeon в качестве прочной основы для будущих гетерогенных вычислений.

Все важное из мира технологий прямо на ваш почтовый ящик.

Подписываясь, вы принимаете наши Условия и Политику конфиденциальности. Вы можете отказаться от подписки одним щелчком мыши в любое время.

Подписаться
Уведомить о
guest

0 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии