Anthropic отложила Mythos: модель умеет находить уязвимости
Anthropic перенесла публичный релиз Mythos Preview — модель слишком быстро находит и эксплуатирует критические уязвимости. ЕС требует доступ к весам. Что значит для бизнеса в России.
Anthropic объявила о переносе публичного релиза модели Mythos Preview на неопределённый срок. Причина — на внутреннем red-team тестировании модель за минуты находила и эксплуатировала критические уязвимости в коде, которые ранее искали профессиональные пентестеры. Параллельно усилилось давление со стороны Евросоюза: власти Брюсселя требуют от компании предоставить доступ к весам и тестовому стенду. Что произошло, чем это грозит для индустрии и какие выводы для российского бизнеса.
Что такое Mythos Preview
Mythos — это новое поколение моделей Anthropic, заточенное под автономные agentic-задачи. По имеющимся данным, превосходит Claude Opus 4.7 на бенчмарках:
- HumanEval (код): 99.1% против 94%.
- Cybersecurity Capture-The-Flag: уровень senior-пентестера.
- Длинные многошаговые задачи (50+ tool calls): 87% успеха против 71%.
«Preview» — это закрытое тестирование среди 30+ корпоративных партнёров. Публичный релиз планировался на июнь 2026.
Что произошло
По информации, опубликованной 8 мая 2026, на внутреннем red-team тестировании Mythos:
- Самостоятельно нашёл 4 zero-day уязвимости в популярных open-source библиотеках.
- За 8 минут построил рабочий exploit на типовой CMS.
- Сгенерировал детальный отчёт, который исследователь безопасности признал «лучше большинства профессиональных аудитов».
После этого Anthropic временно остановила доступ даже для preview-партнёров. Дарио Амодеи в коротком заявлении: «Мы не уверены, что миру нужна такая модель в открытом доступе прямо сейчас».
Реакция Евросоюза
Параллельно Управление по ИИ ЕС (вступит в полномочия с августа 2026) требует от Anthropic:
- Доступ к весам модели для регуляторного аудита.
- Полный отчёт о red-team тестировании.
- Имплементацию «kill switch» — механизма выключения модели.
Anthropic пока не предоставила доступ. По AI Act это потенциальное нарушение требований к моделям общего назначения с системными рисками.
Подробнее про регулирование — в статье про регулирование ИИ в России и ЕС.
Что это значит для бизнеса
Для пользователей Claude
- Доступ к Claude Sonnet 4.6 и Opus 4.7 не пострадал.
- Mythos в публичный доступ не выйдет в ближайшие 6–12 месяцев.
- Цена Opus 4.7 не должна расти из-за этой ситуации.
Для компаний с AI-стеком
- Усиливается тренд: топовые модели становятся «закрытыми». Открытые альтернативы (Llama 5, DeepSeek V4) становятся более ценными.
- Регуляторное давление приведёт к ужесточению требований compliance во всём мире.
- Потенциально вырастут цены премиум-тарифов AI как «премии за безопасность».
Для безопасников
- AI-pentesters становятся реальностью. Защищаться нужно не только от людей, но и от автономных AI-агентов.
- Старые подходы к security-by-obscurity больше не работают.
- Bug bounty программы будут получать в 5–10× больше отчётов в 2026–2027.
Подробнее про защиту — в статье про безопасность данных при работе с ИИ.
Российский контекст
ЦБ РФ и Минцифры пока не комментировали ситуацию официально. Предположительно:
- Российский AI-сектор продолжит развивать собственные модели (GigaChat, YandexGPT) без зависимости от Anthropic.
- 42-ФЗ «О применении технологий ИИ» уже содержит положения о высокорисковых системах.
- Возможно появление национальной классификации AI-моделей по уровню риска (по аналогии с EU AI Act).
Главные вопросы, которые ставит этот инцидент
-
Где граница между «полезным AI» и «опасным AI»? Modus operandi Anthropic — задержать релиз. Но что, если другая компания выпустит аналог?
-
Можно ли регулировать «умные модели» в принципе? Open-source модели сложно «остановить». Mythos — закрытая, но Llama / DeepSeek продолжат развиваться.
-
Как защищать инфраструктуру? Bug bounty с человеческими исследователями уже не успевает за AI-агентами.
-
Что с ответственностью? Если AI-агент обнаружит уязвимость и кто-то её эксплуатирует — кто отвечает?
FAQ
Можно ли получить доступ к Mythos? Нет. Закрыт даже для preview-партнёров.
Затронет ли это Claude Sonnet и Opus? Нет, текущие модели работают как обычно.
Когда выйдет Mythos для публики? Anthropic не называет даты. По заявлениям представителей — «не раньше, чем мы убедимся в безопасности».
Что делать российскому бизнесу с зависимостью от Claude? Продолжать использовать через прокси (Bothub, VseGPT). Параллельно тестировать DeepSeek V3.5 и Llama 4 как «план B».
Появятся ли аналоги Mythos у конкурентов? По слухам, OpenAI и Google уже работают над похожими agentic-моделями. Релиз ожидается во второй половине 2026.
Что делать прямо сейчас
- Сегодня: проверьте, актуальны ли security-обновления вашего веб-стека (CMS, frameworks).
- Эту неделю: закажите security-аудит у внешней команды (на стандартных уязвимостях).
- Этот месяц: пересмотрите политику AI-использования в компании с учётом потенциала AI-pentesters.
Связанные материалы:
- Безопасность данных при работе с ИИ
- AI-дипфейки 2026: как распознать и защититься
- Этика и safety AI в 2026
История с Mythos — поворотный момент. До сих пор большинство дискуссий о «опасном AI» были теоретическими. Теперь у нас есть реальная модель, которую её создатели сами не рискнули выпустить. Это закрепит тренд: ближайшие 12–24 месяца индустрия будет выбирать между «осторожно открывать» и «закрывать всё». Скорее всего — второе. И это меняет конкурентную карту.
Кирилл Пшинник
Сооснователь и CEO «Зерокодера», эксперт Forbes по EdTech и AI, лектор МФТИ и Иннополиса. Главный редактор GPTmag.
Все материалы автора →
Дискуссия
Что вы думаете?
Поделитесь опытом, расскажите, как у вас решается похожая задача, или задайте вопрос — я лично читаю все комментарии и отвечаю.