Компания DeepSeek официально представила новую версию большой языковой модели DeepSeek V4, доступную в двух модификациях - Pro и Flash. Обе версии выпущены с открытыми весами и поддерживают контекстное окно в 1 млн токенов, что становится стандартом для всех сервисов разработчика. Модель Pro насчитывает 1,6 трлн параметров при 49 млрд активных, Flash - 284 млрд общих и 13 млрд активных. Согласно заявлению компании, производительность V4-Pro сопоставима с лучшими закрытыми моделями американских вендоров, включая Gemini 3.1 Pro, при заметно более низкой стоимости инференса.
Сам по себе выпуск модели с открытыми весами не является уникальным событием на рынке больших языковых моделей. Однако DeepSeek V4 примечательна тем, что разработчик заявляет о превосходстве над всеми текущими открытыми моделями в тестах на математическое и STEM-мышление, программирование и агентные сценарии. В области фактологических знаний модель уступает только Gemini 3.1 Pro, обходя всех остальных конкурентов с открытым кодом. Компания также внедрила новую архитектуру внимания, основанную на потоковом сжатии токенов и разреженном внимании DeepSeek Sparse Attention, что, по утверждению разработчиков, позволяет резко сократить вычислительные и ресурсные затраты при обработке длинного контекста.
Главная интрига заключается в том, что модель выходит в момент, когда рынок ИИ переживает переход от гонки за размером модели к поиску баланса между производительностью и эксплуатационными расходами. DeepSeek позиционирует V4 как прагматичное решение для бизнеса: версия Flash при 13 млрд активных параметров демонстрирует производительность, приближающуюся к Pro, на простых агентных задачах, а время ответа у неё значительно ниже. API уже доступен с поддержкой форматов OpenAI ChatCompletions и Anthropic, что упрощает миграцию для существующих пользователей.
Под ударом оказывается не только репутация закрытых моделей, но и их ценообразование. Если заявленные характеристики подтвердятся независимыми тестами, DeepSeek V4 может стать серьезным аргументом для компаний, которые рассматривают переход на open-source решения ради экономии. При этом модель уже интегрирована с ведущими агентными инструментами, включая Claude Code и OpenClaw, а также используется внутри DeepSeek для собственных задач по генерации кода.
В официальном анонсе компания подчеркивает: "DeepSeek-V4-Pro демонстрирует производительность, соперничающую с лучшими мировыми закрытыми моделями". Одновременно разработчик объявил о поэтапном выводе из эксплуатации старых моделей deepseek-chat и deepseek-reasoner - они перестанут быть доступны после 24 июля 2026 года, а уже сейчас их функции маршрутизируются на V4-Flash. Отдельно компания предупредила о необходимости полагаться только на официальные каналы для получения новостей о DeepSeek, что может быть связано с недавними случаями распространения недостоверной информации.
Ситуация движется к тому, что рынок больших языковых моделей все отчетливее расслаивается на два лагеря: дорогие закрытые решения с сопутствующим сервисом и доступные открытые альтернативы с сопоставимым качеством. DeepSeek V4, если она подтвердит заявленные характеристики, способна ускорить этот процесс, особенно в сегменте задач, связанных с программированием и обработкой длинного контекста. Вопрос теперь в том, насколько быстро независимое сообщество проведет бенчмаркинг модели и сможет ли DeepSeek удержать темп развития при сохранении низкой цены на API.