Открытые vs закрытые модели в мае 2026: расклад сил
DeepSeek V3.5, Llama 4, Mistral Large 3, Qwen 3 догнали GPT-5 и Claude Sonnet. Что это значит для бизнеса, какую модель выбрать в проде, как считать стоимость владения. Реальная картина на май 2026.
В январе 2024 разрыв между открытыми и закрытыми моделями был в год: лучший open-source отставал от GPT-4 на ~1 поколение. В мае 2026 разрыв сократился до 3–6 месяцев, а в некоторых задачах открытые модели обходят закрытые. DeepSeek V3.5, Llama 4, Mistral Large 3, Qwen 3 — это не «бесплатные альтернативы для энтузиастов», а реальные конкуренты для production-нагрузок. Этот материал — про то, как изменился расклад сил и какую модель брать в бизнес-проект в мае 2026.
Что такое «открытые» модели в 2026
Уточним терминологию:
- Open-weights — веса модели опубликованы, можно скачать и запускать (Llama, DeepSeek, Mistral, Qwen).
- Open-source — веса + код тренировки + данные. Полностью открытых моделей высокого уровня в 2026 — единицы (OLMo от AI2).
- Закрытые — доступны только через API провайдера (GPT, Claude, Gemini).
«Open-source» в обиходе часто означает open-weights — это и подразумеваем здесь.
Ландшафт мая 2026
Топ закрытых моделей
| Модель | Производитель | API цена/1M output |
|---|---|---|
| GPT-5.5 | OpenAI | $2.00 |
| Claude Opus 4.7 | Anthropic | $90 |
| Claude Sonnet 4.6 | Anthropic | $5 |
| Gemini 2.5 Pro | $1.25 | |
| YandexGPT 4 Pro | Яндекс | ~$1.50 (1500 ₽) |
| GigaChat 3.0 Pro | Сбер | ~$1.20 (1200 ₽) |
Топ открытых моделей
| Модель | Производитель | Размер | Через API |
|---|---|---|---|
| Llama 4 405B | Meta | 405B | $0.40 (Together AI) |
| DeepSeek V3.5 | DeepSeek | 671B (MoE 37B активных) | $0.27 (через DeepSeek API) |
| Qwen 3 235B | Alibaba | 235B | $0.20 (Alibaba Cloud) |
| Mistral Large 3 | Mistral | 256B | $1.50 (Mistral API) |
| DBRX 2 | Databricks | 132B | через AWS Bedrock |
Бенчмарки: кто реально на каком уровне
| Задача | GPT-5.5 | Claude Opus 4.7 | DeepSeek V3.5 | Llama 4 405B | Qwen 3 |
|---|---|---|---|---|---|
| MMLU (общие знания) | 92% | 91% | 88% | 87% | 85% |
| HumanEval (код) | 96% | 94% | 92% | 89% | 88% |
| GPQA (наука) | 78% | 82% | 71% | 68% | 67% |
| MATH | 88% | 90% | 86% | 81% | 79% |
| Скорость (tokens/sec) | 80 | 60 | 120 | 70 | 95 |
Главное наблюдение: на стандартных бенчмарках разрыв 3–8 п.п. На специализированных (GPQA, сложная математика) — больше, до 12 п.п.
В практических задачах для бизнеса (поддержка клиентов, генерация контента, анализ документов) разрыв чаще всего незаметен.
Когда брать открытую модель
1. Чувствительные данные
Открытую модель можно запустить локально — на своих серверах в РФ. Никакие данные не уходят к провайдеру.
Кейс: банки, медорганизации, госкомпании, предприятия с гостайной.
2. Большие объёмы
API-цена закрытых моделей — за токен. На объёмах от 100M токенов в месяц open-source через own deployment окупается.
Расчёт: GPT-5.5 на 500M токенов = $1 000/мес. Локальный DeepSeek на 4× H100 (~3 млн ₽ серверов или $5 500/мес аренды) — обрабатывает 500M токенов за неделю.
3. Кастомизация
Open-weights можно дообучать (fine-tune, LoRA) под ваши данные. Закрытые модели предлагают fine-tuning, но дороже и менее гибко.
Кейс: AI-агент с экспертизой в вашей нише, бренд-голос, специфический жаргон.
4. Гарантия доступности
Open-weights нельзя «закрыть», как могут закрыть API. Это страховка от санкционных рисков.
5. Низкая задержка
Локальная модель отвечает за 50–200 мс. Облачный API — 500–2 000 мс. Для real-time приложений (голос, чаты) разница критична.
Когда брать закрытую модель
1. Топовое качество в сложных задачах
Если ваша задача — сложный reasoning, научный анализ, юридическая работа — Claude Opus 4.7 пока лучше всех открытых.
2. Без инфраструктуры
Open-weights требуют GPU, DevOps, мониторинга. Малому бизнесу проще платить $20/мес за API.
3. Готовые экосистемы
Voice mode, Canvas, Code Interpreter, Agents — это готовые фичи у OpenAI, Anthropic, Google. С open-source собирать самому — недели работы.
4. Мультимодальность high-end
Sora 2, Veo 3, Gemini Multimodal — пока никто из open-source не догнал по качеству видео и аудио.
Стоимость владения (TCO) — реальный расчёт
Сценарий: B2B SaaS, 10M запросов в месяц, средняя длина запроса 2 000 токенов input + 500 output.
Закрытый API (GPT-5.5):
- Input: 20B токенов × $0.50 = $10 000
- Output: 5B токенов × $2 = $10 000
- Итого: $20 000/мес
Открытый Llama 4 на Together AI (managed):
- Input + Output: 25B × $0.40 = $10 000
- Итого: $10 000/мес (-50%)
Открытый DeepSeek V3.5 на собственном железе:
- Серверы (4× H100): $5 500/мес аренды или ~$3 000/мес амортизация при покупке
- DevOps + мониторинг: $1 500/мес
- Итого: $4 500–7 000/мес (-65–77%)
Минусы локального деплоя: нужна команда, риск простоя, отсутствие готовых фич, 1–2 месяца на запуск.
Российская специфика
Доступность
| Модель | Доступ из РФ | Оплата |
|---|---|---|
| GPT-5.5 | через VPN + прокси | прокси-сервисы |
| Claude | через VPN + прокси | прокси-сервисы |
| Llama 4 | прямой (HuggingFace) | бесплатно (open-weights) |
| DeepSeek V3.5 | прямой через DeepSeek API | российские карты работают |
| Qwen 3 | через Alibaba Cloud | непросто |
| YandexGPT / GigaChat | прямой | российские карты |
152-ФЗ
Локально развёрнутая open-source модель — самый безопасный вариант. Все данные в вашем периметре, ничего не уходит за границу.
Подробнее — в статье про безопасность данных при работе с ИИ.
Кто что использует на российском рынке
- Сбер: GigaChat в проде + Llama для тонкой настройки.
- Яндекс: YandexGPT + Qwen для специфики.
- Тинькофф: GPT через прокси + DeepSeek для дешёвых задач.
- Малый и средний бизнес: микс GigaChat + Llama локально + ChatGPT для разовых задач.
Главные мифы
-
«Открытое = бесплатно». Веса бесплатны, инфраструктура — нет. На больших объёмах open-source окупается, на маленьких — дороже.
-
«Закрытое всегда лучше». На многих задачах разрыв 3–5 п.п. — для бизнеса несущественно.
-
«Open-source небезопасны». Открытость не делает модель уязвимее. Наоборот, можно проверить, что внутри.
-
«Только разработчики могут использовать». В 2026 есть managed-сервисы (Together AI, Fireworks, Replicate) — open-source доступен через API без своей инфраструктуры.
-
«Open-source быстро устаревает». Темпы релизов сравнимы. DeepSeek и Llama обновляются 2–3 раза в год.
Прогноз: что будет дальше
До конца 2026:
- Llama 5 (ожидается осень 2026) — может догнать GPT-5.5 по большинству бенчмарков.
- DeepSeek V4 — продолжит давление снизу по цене.
- OpenAI / Anthropic — сосредоточатся на агентских функциях и интеграциях, не только на «голой» производительности модели.
К 2027–2028:
- Гибридные стратегии станут нормой: разные модели под разные задачи.
- Корпоративный AI = микс из 3–5 моделей.
- Open-source модели для большинства production-нагрузок, закрытые — для топовых задач.
FAQ
Стоит ли переходить с GPT-5 на DeepSeek V3.5? Если у вас расходы $5 000+/мес на API — стоит протестировать. Часто экономия 60–80% без потери качества для типовых задач.
Можно ли запустить Llama 4 на ноутбуке? 405B — нет, нужен серверный кластер. Llama 4 8B или 70B — на 1 RTX 4090 / 5090 запустить можно.
Что выбрать малому бизнесу в РФ? Для разовых задач — GigaChat / YandexGPT. Для production — DeepSeek через API ($0.27/1M output) или local Llama.
Безопасно ли использовать DeepSeek (китайскую) для корпоративного? Локально — да (данные не уходят в Китай). Через DeepSeek API — данные идут в Китай, для компаний с РФ-compliance — лучше прокси или локальный деплой.
Поддерживается ли русский язык в Llama 4? Да, заметно лучше Llama 3. Но Mistral Large 3 и Qwen 3 могут быть качественнее на русском.
Что с лицензиями? Llama 4 — Meta Custom License (коммерческое использование разрешено для большинства). DeepSeek, Qwen — Apache 2.0 / MIT (полная свобода). Mistral — собственная.
Что делать прямо сейчас
- Сегодня: оцените свои AI-расходы за апрель. Если 50 тыс ₽+ на API — протестируйте open-source альтернативу.
- Эту неделю: запустите DeepSeek V3.5 через прокси и сравните качество ответов с вашей текущей моделью.
- Этот месяц: проведите proof of concept локального Llama 4 для чувствительных задач.
Связанные материалы:
- Open-source AI: DeepSeek, Mistral, Llama
- Claude vs ChatGPT в 2026
- YandexGPT и GigaChat: разбор российских нейросетей
Расклад мая 2026: open-source перестали быть «второй лигой» AI. На многих задачах они равны или лучше. Это меняет экономику AI-проектов: правильный выбор модели экономит компании 50–80% бюджета без потери качества для конечного пользователя.
Михаил Соколов
AI-инженер с 10 годами в продакшене. Разрабатывает агентные сценарии и автоматизации на стеке OpenAI / Anthropic / YandexGPT.
Все материалы автора →
Дискуссия
Что вы думаете?
Поделитесь опытом, расскажите, как у вас решается похожая задача, или задайте вопрос — я лично читаю все комментарии и отвечаю.