Inspur представил модель суперкорна SD200 Metabrain для моделей искусственного интеллекта с триллионами параметров

Китайская компания Inspur представила супер-интенсивные задачи искусственного интеллекта SD200 SD200. Утверждается, что система может обрабатывать модели с более чем 1 триллионом параметров.
Платформа Metabrain SD200 интегрирует 64 карты в «супер -приход» с унифицированной памятью. Он основан на открытой 3D -сетчатой архитектуре и собственных выключателях Open Fabric. Другими словами, ускорители на основе графических процессоров, распределенные на разных серверах, объединяются с помощью высокоскоростного соединения в одном домене.
Superrue обеспечивает доступ к 4TB VRAM и 64TB Main Ram. Это позволяет одновременно запустить четыре китайские модели искусственного интеллекта с открытым исходным кодом, в том числе Deepseek R1 и Kimi K2. Кроме того, совместная работа в режиме реального времени поддерживается несколькими агентами ИИ.
Говорят, что Metabrain SD200 имеет низкую передачу данных, которая является «сотнями наносекунд». В обычных сценариях для выводов, связанных с небольшими пакетами данных, система превосходит задержку обычных промышленных решений.
Новая платформа включает в себя инструменты оптимизации. В частности, инструмент Smart Fabric Manager автоматически генерирует оптимальные пути данных на основе характеристик нагрузки. Metabrain SD200 совместим с широко распространенными структурами, такими как Pytorch, VLLM и SGLANG, что позволяет быстро миграцию существующих моделей и агентов искусственного интеллекта без необходимости переписать программный код из нуля. Таким образом, стоимость миграции значительно снижается.
В целом, удаленная технология VGPU позволяет ускорителям, выделяемым на разные серверы, чтобы общаться так же эффективно, как если бы они были на одном и том же хозяине. Таким образом, достигается 8-кратное расширение адресного пространства, которое обеспечивает полное использование ресурсов и эффективную работу даже с использованием моделей ИИ с триллионными параметрами.