Китайский ИИ-стартап DeepSeek опубликовал превью новой линейки языковых моделей
🚀 DeepSeek-V4 Preview — это официальный выход и открытие исходного кода! Welcome to the era of cost-effective 1M контекстной длины
Новая линейка моделей включает флагманскую версию V4-Pro, которая обошла модели Claude Opus 4.6 и GPT-5.4, став первой открытой системой
🔹 DeepSeek-V4-Pro: 1,6 ТБ общего объема / 49 млрд активных параметров Производительность сопоставима с мировыми лидерами в закрытых системах.
Другой вариант, V4-Flash, имеет общий объем 284 млрд, из которых активируются 13 млрд
Обе модели построены на архитектуре «смеси экспертов» (Mixture of Experts, MoE): при обработке каждого токена включается только та часть подсетей, которая релевантна задаче Этот подход дешевле полностью плотных архитектур, но не уступает им в производительности
📊
Предобучение проходило на корпусе объемом более 32 трлн токенов Затем разработчики дообучили модели поэтапно, выделив отдельные блоки для кодинга, математики, логики и следования инструкциям.
Финальная версия сводит эти навыки воедино с помощью дистилляции
Это позволяет модели эффективно работать с длинными последовательностями, что было ранее затруднено высокой стоимостью и задержками 💰
Длинный контекст стал дешевле Ключевым отличием V4 стала оптимизация обработки длинных последовательностей
В DeepSeek заявили, что новая версия заметно снизила ресурсоемкость таких операций По сравнению с V3.2, V4-Pro требует около 27% вычислений и 10% памяти KV-кэша при работе с максимальным контекстом.
Для V4-Flash показатели составляют примерно 10% и 7% соответственно
Эта оптимизация достигнута благодаря гибридной архитектуре внимания, которая позволяет модели сжимать данные и снижать нагрузку при работе с длинными текстами ⚡
Режимы рассуждения и агентные возможности DeepSeek V4 поддерживают три режима рассуждений: Non-think, Think High и Think Max
Non-think — быстрые ответы на простые вопросы без дополнительного анализа Think High — глубокий анализ для сложных задач и планирования
Think Max — максимальный режим: модель прописывает каждый шаг и проверяет все варианты 🐋
В агентных задачах режим Max теперь сохраняет цепочку промежуточных шагов внутри одной задачи
В предыдущей версии часть такого контекста терялась при взаимодействии с пользователем 📊
Результаты тестирования По данным DeepSeek, флагманская версия демонстрирует результаты, сопоставимые с ведущими системами в ряде направлений:
в задачах по программированию на Codeforces модель достигла рейтинга 3206 — 23 место среди живых программистов мира, паритет с GPT-5.4.
в математике показала 95,2 на HMMT 2026 и 89,8 на IMOAnswerBench, опередив большинство конкурентов.
в знаниях SimpleQA Verified — 57,9 (Opus 4.6 — 46,2, но Gemini 3.1 Pro — 75,6).
в ризонинге модели отстают от GPT-5.4 и Gemini 3.1 Pro только на три-шесть месяцев.
Во внутреннем тесте DeepSeek, включающем задачи разработки, отладки и рефакторинга, модель достигла 67% — между Sonnet 4.5 (47%) и Opus 4.5 (70%).
В агентных сценариях и задачах разработки V4-Pro-Max продемонстрировала 80,6% на SWE Verified и 67,9% на Terminal Bench.
V4 специально тренировали на реальных сценариях: анализ данных, отчеты, редактирование документов, поиск в интернете с итеративным использованием инструментов.
Для оценки пригодности модели в реальной разработке стартап провел внутреннее тестирование на задачах своих инженеров
В опросе 85 разработчиков и исследователей 52% заявили, что готовы использовать V4-Pro как основную модель для кодинга, еще 39% отметили, что склоняются к такому решению.
GPT-5.5 Модель позиционируется как «новый уровень интеллекта для реальной работы и управления агентами»
📊
По материалам ForkLog