DeepSeek V4 вышел и доступен бесплатно

24 апреля 2026 года DeepSeek выпустила V4 — два новых Mixture-of-Experts модели: DeepSeek-V4-Pro и DeepSeek-V4-Flash. Обе доступны через API, веб-интерфейс и с открытыми весами под Apache 2.0 (MIT для некоторых компонентов).
Это первый крупный релиз DeepSeek после V3.2 в декабре 2025.
Характеристики
V4-Pro: 1.6 трлн общих параметров, 49 млрд активных, обучена на 33 трлн токенов.
V4-Flash: 284 млрд общих параметров, 13 млрд активных, обучена на 32 трлн токенов.
Обе модели: контекст 1 млн токенов, максимальный output 384K токенов, лицензия Apache 2.0.
Архитектура: CSA + HCA
Главная техническая новинка V4 — гибридный механизм внимания:
- CSA (Compressed Sparse Attention) — сжатое разреженное внимание
- HCA (Heavily Compressed Attention) — сильно сжатое внимание
В сочетании с mHC (Manifold-Constrained Hyper-Connections) для распространения сигнала и оптимизатором Muon для стабильности обучения.
Результат на контексте 1 млн токенов:
- V4-Pro: 27% вычислений и 10% KV-кэша от V3.2
- V4-Flash: 10% вычислений и 7% KV-кэша от V3.2
Это делает inference на миллионном контексте экономически жизнеспособным.
Бенчмарки V4-Pro
DeepSeek сравнивает V4-Pro с Claude Opus 4.6, GPT-5.4 и Gemini-3.1-Pro.
MMLU-Pro: V4-Pro набирает 87.5 — ровно столько же, сколько GPT-5.4. Opus 4.6 чуть выше (89.1), Gemini 3.1 Pro лидирует (91.0).
LiveCodeBench: V4-Pro лидирует с 93.5, опережая Gemini (91.7) и Claude (88.8).
Codeforces: V4-Pro набирает рейтинг 3206 — это 23-е место среди людей. Опережает GPT-5.4 xHigh (3168) и Gemini 3.1 Pro High (3052).
Формальная математика: IMOAnswerBench 89.8 (GPT-5.4 впереди с 91.4, Opus 4.6 позади с 75.3). HMMT 2026 Feb 95.2 (GPT-5.4 лидирует с 97.7). GPQA Diamond 90.1.
Ключевые результаты:
- На MMLU-Pro V4-Pro идет вровень с GPT-5.4 (87.5)
- На LiveCodeBench V4-Pro лидирует (93.5)
- На Codeforces рейтинг 3206 — 23-е место среди людей, опережает GPT-5.4 xHigh (3168)
- На формальной математике сильные результаты: IMOAnswerBench 89.8, HMMT 95.2
Где V4-Pro отстает:
- SimpleQA-Verified: 57.9 против 75.6 у Gemini 3.1 Pro (разрыв 18 пунктов на фактологии)
- Long-context retrieval: Claude Opus 4.6 по-прежнему лидирует на MRCR 1M
- Agentic coding: GPT-5.5 и Opus 4.7 (вышедшие сегодня же) сильнее на Terminal-Bench 2.0 и SWE-Bench Pro
Важный контекст: сравнение с текущим frontier
DeepSeek сравнивает V4 с GPT-5.4 и Opus 4.6 — моделями на момент апреля. Но:
- OpenAI выпустила GPT-5.5 в тот же день (24 апреля 2026)
- Anthropic уже имеет Opus 4.7
По данным Handy AI: на каждом пересекающемся бенчмарке V4-Pro-Max отстает от Opus 4.7 и GPT-5.5 на 3-15 пунктов, с самыми большими разрывами на agentic workloads.
Kingy AI: «V4-Pro-Max leads on LiveCodeBench, Codeforces, and Apex Shortlist, stays within striking distance of frontier closed models on GPQA/HLE, and trails Claude Opus 4.6 on MRCR 1M long-context recall.»
Цены
V4-Pro: $1.74 за миллион токенов на входе, $3.48 на выходе.
V4-Flash: $0.14 за миллион на входе, $0.28 на выходе.
Cache-hit discount: 80-90% скидка на повторяющиеся промпты.
Сравнение: Claude Opus 4.7 стоит $5/M input и $25/M output. GPT-5.5 обходится примерно в $6.20 per task на сопоставимых workloads. V4-Pro примерно в 7 раз дешевле Opus 4.7 на output.
Режимы работы
Обычный режим: Стандартная генерация.
Max режим: Расширенный reasoning с увеличенным бюджетом токенов на размышление. V4-Pro-Max и V4-Flash-Max показывают улучшенные результаты на сложных задачах.
Оптимизация для AI-агентов
V4 поставляется с нативной поддержкой популярных AI-агентных продуктов:
- Claude Code
- OpenClaw
- OpenCode
- CodeBuddy
Это означает, что модель оптимизирована для tool use и многошаговых агентных workflow.
Обучение
Двухэтапный post-training с on-policy distillation:
- DeepSeek обучил отдельные domain-specific expert models (математика, код, агенты, знания) с SFT + RL-GRPO
- Затем дистиллировал их в единую V4 через on-policy distillation
Это тот же подход, который используют Anthropic и OpenAI.
Доступность
- Веб: chat.deepseek.com (бесплатно, без VPN)
- API: api.deepseek.com (обновлен 24 апреля)
- Открытые веса: Hugging Face под Apache 2.0
Контекст релиза
Timing: V4 вышел в тот же день, что и GPT-5.5. Ofox AI: «Ship on the same day and you split the news cycle.»
История: DeepSeek привлекла внимание мира в январе 2025, когда R1 сравнялась с OpenAI o1 при стоимости на ~90% ниже. Это временно обрушило акции NVIDIA.
Предыдущий релиз: V3.2 в декабре 2025.
Чипы: По данным Reuters (апрель 2026), DeepSeek последние месяцы работала с Huawei и Cambricon над адаптацией модели для Huawei chips.
Где V4 сильнее всего
- Competitive programming: Codeforces 3206 — лидер среди всех моделей
- Формальная математика: HMMT 95.2, IMOAnswerBench 89.8
- Длинный контекст по цене: 1M токенов без наценки — у западных лабов это или capped, или premium
- Цена за производительность: Frontier-adjacent результаты при 7x меньшей цене
Где V4 слабее
- Factual recall: SimpleQA-Verified 57.9 против 75.6 у Gemini
- Long-context retrieval: Claude Opus по-прежнему лидирует
- Agentic coding на frontier: GPT-5.5 и Opus 4.7 сильнее на Terminal-Bench 2.0
- Не мультимодальный: V4 text-only (по крайней мере в preview)
Итог
DeepSeek V4 — сильнейшая открытая модель на сегодняшний день по competitive programming и формальной математике. Первая открытая модель с Codeforces-рейтингом на уровне frontier closed models.
На бенчмарках V4-Pro идет вровень с GPT-5.4 и близко к Opus 4.6, но уступает свежим GPT-5.5 и Opus 4.7 на agentic workloads.
Главная история V4 — не абсолютное лидерство, а economics: frontier-adjacent производительность при 7x меньшей цене. Каждый такой релиз DeepSeek заставляет западные лаборатории пересматривать тарифы.
Источники
- Hong Kong Free Press — China's DeepSeek releases long-awaited new AI model
- OfficeChai — DeepSeek V4-Pro & V4-Flash Benchmarks & Pricing