Broadcom и CAMB.AI разрабатывают чипсет NPU для перевода звука в реальном времени без доступа к облаку
В эпоху повсеместного распространения искусственного интеллекта мы ведем постоянную борьбу за то, где на самом деле обрабатываются данные. Облако, несмотря на свою мощь, всегда вызывает вопросы о конфиденциальности, скорости и стабильности соединения. Теперь приходит Broadcom, важный поставщик чипов для домашних развлекательных устройств, который только что объявил о сотрудничестве, которое может произвести революцию в одном из самых желанных элементов современных технологий — переводе звука в реальном времени.
«Наша миссия в CAMB.AI всегда заключалась в том, чтобы разрушить языковые барьеры для 8 миллиардов человек по всему миру», — сказал Акшат Пракаш, соучредитель и технический директор CAMB.AI.
Broadcom разработает специальные ускорители искусственного интеллекта для OpenAI. Цель — стать независимым от NVIDIA и сократить расходы.
Представьте, что вы смотрите французского YouTube-блогера, и ваш телевизор транслирует его высказывания без подключения к Интернету. Именно об этом объявляют Broadcom и CAMB.AI: партнерство, которое может изменить то, как мы потребляем зарубежный контент. Разработчик полупроводников объявил о сотрудничестве с калифорнийским стартапом для интеграции передовых моделей искусственного интеллекта непосредственно в SoC. Все спроектировано для локальной работы, исключая задержки и проблемы конфиденциальности. Новый чипсет Broadcom со встроенным NPU поддерживает технологию CAMB.AI, стартапа, известного своими проектами для NASCAR, Comcast NBCUniversal и Евровидения. В основе решения лежат две модели искусственного интеллекта: MARS (эмуляция голоса и синтез речи) и BOLI (перевод). Они призваны превратить обычные приставки и роутеры в многоязычные развлекательные центры с поддержкой более 150 языков.
Intel 18A привлекает внимание. NVIDIA и Broadcom тестируют новый процесс, открывающий путь к потенциальному сотрудничеству
Самое главное, что они полностью обрабатываются на конечном устройстве, а это значит, что никакие данные не передаются на внешние серверы. Это означает значительное сокращение задержки, повышение конфиденциальности и снижение потребности в пропускной способности сети. В демо-видео показано, как ИИ описывает сцену из «Рататуя» на разных языках. Решение в первую очередь ориентировано на людей с проблемами зрения, но его потенциал простирается гораздо дальше. Читатели уже знают NPU по процессорам MediaTek Dimensity или инициативе Copilot+ PC. Партнерство Broadcom с CAMB.AI идет дальше, внедряя специализированные языковые модели непосредственно в потребительские чипсеты. В этом разница по сравнению с Google Pixel или Galaxy, где для перевода иногда требуется частичный доступ к облаку.
Очки Ray-Ban Meta с функциями искусственного интеллекта. Прямые трансляции и интеграция с Instagram доступны в большем количестве стран.
Broadcom не назвала дату премьеры, но напоминает, что ее чипы уже работают в полумиллиарде устройств по всему миру, то есть в ТВ-приставках, маршрутизаторах и интернет-оборудовании. Если интеграция окажется успешной, миллионы ферм смогут получить функциональность перевода благодаря обновлению программного обеспечения. Остается вопрос о точности в реальных сценариях. CAMB.AI может похвастаться сохранением тона и эмоций, но ему не хватает независимых тестов с Google Translate или DeepL. Broadcom и CAMB.AI предстоит доказать, что технология будет работать не только в демонстрационных условиях, но и в повседневном использовании.
Источник: Engadget, CAMB.AI, Security Online.