Один файл, полмиллиона строк и большая проблема. Вот как Anthropic подарила своим конкурентам инструкцию по эксплуатации Claude Code
Иногда все технологическое преимущество может обезоружить мелочь, которую до публикации никто не заметил. Именно это произошло с Claude Code, где обычное обновление превратилось в публичное представление о том, что происходит под капотом одного из самых обсуждаемых инструментов искусственного интеллекта для разработчиков. И хотя Anthropic говорит об ошибке упаковки, последствия этой ошибки выходят далеко за рамки простого сбоя конвейера.
Это была не утечка данных о клиентах, а раскрытие инженерного преимущества, и такие ошибки рынок помнит дольше, чем заявления компаний.
Музеи, архивы и университеты в одном месте. KRONIK@ 2.0 анонсирует заказ, которого давно не было в Польше
Версия 2.1.88 пакета @anthropic-ai/claude-code зашел в npm с прикрепленным файлом исходная картачто позволило нам воссоздать около 1900 файлов TypeScript и более 512 000 строк кода. Anthropic утверждает, что не было никакого взлома данных клиента или утечки учетных данных, поэтому обычному пользователю не следует паниковать по поводу истории сеансов или ключей, хранящихся на стороне компании. Проблема кроется в другом. Публично была раскрыта логика инструмента, который должен был стать продуктом, а не документацией для всей отрасли. Это влияет на доверие к издательскому процессу и предоставляет исследователям и, конечно же, конкурентам готовый материал для анализа.
iOS 26.4 официально доступна. Узнайте, что нового в следующем обновлении для смартфонов Apple iPhone
На этом фоне ситуация выглядит прямо-таки иронично. Когда мы описывали запуск Claude Code, мы говорили о терминальном агенте, который читает репозиторий, редактирует файлы, запускает тесты и работает как активный участник кода. Мы также недавно писали о том, что OpenAI намеренно раскрывает архитектуру Codex CLI. Разница фундаментальна, поскольку прозрачность укрепляет позицию, а случайное раскрытие механизмов ее ослабляет. Для таких конкурентов, как OpenAI, Cursor и Windsurf, эта утечка — не готовый клон продукта, а очень ценный урок о том, как Anthropic организует память, инструменты и рабочий процесс в агенте кодирования.
OpenAI прекращает выпуск Sora через несколько месяцев. Видеогенератор проигрывает приоритетам компании
В долгосрочной перспективе это сигнал о том, что война за программистов выходит на новый этап. Модели ИИ все чаще можно сравнивать с тестами, но настоящее преимущество заключается в оркестровке, то есть в памяти сеансов, управлении контекстом, интеграции с GitHub и контроле над действиями агентов. Вот почему этот инцидент имеет больший вес, чем обычный инцидент, связанный с безопасностью. Пользователь, вероятно, получит более быстрые исправления и более строгие процедуры публикации, но рынок получил кое-что более ценное. Это убедительное доказательство того, что в сегменте ИИ-агентов важна не только модель, но и вся инженерная база вокруг нее.
Источник: Ars Technica, The Verge, VentureBeat, The Register, npm, Anthropic.